Nvidia представила открытую модель Nemotron 3 Super для агентных ИИ с контекстом до 1 млн токенов
Компания Nvidia официально представила языковую модель Nemotron 3 Super — открытую Mixture-of-Experts (MoE) систему с гибридной архитектурой Mamba-Transformer, ориентированную на агентный ИИ и работу с очень большими объёмами данных. Модель насчитывает 120 млрд общих параметров, из которых активно лишь 12 млрд, что позволяет сочетать высокую точность с более эффективным использованием ресурсов.

Nemotron 3 Super стала первой моделью в линейке Nemotron 3, которая объединяет парадигму LatentMoE, слои Multi-Token Prediction (MTP) и предварительное обучение в формате NVFP4. По данным Nvidia, такая связка повышает точность рассуждений, ускоряет инференс и обеспечивает до пятикратного роста пропускной способности по сравнению с предыдущей Nemotron Super. В сравнении с открытыми моделями GPT-OSS-120B и Qwen3.5-122B Nemotron 3 Super демонстрирует до 2,2 и 7,5 раза более высокую скорость вывода соответственно при сценарии 8000 токенов на входе и 16000 на выходе, сохраняя при этом сопоставимую или лучшую точность в бенчмарках.
Ключевая особенность Nemotron 3 Super — поддержка контекстного окна до 1 млн токенов. Это позволяет агентным ИИ хранить в памяти полное состояние сложных рабочих процессов, анализировать тысячи страниц документации или финансовых отчётов без сегментации, а также снижать риск «схождения с курса» при долгих цепочках действий. Nvidia позиционирует модель для задач генерации и отладки кода, анализа длинных документов, финансовой аналитики и вызова внешних инструментов в составе многоагентных систем.
Модель обучалась преимущественно на синтетических датасетах, созданных с использованием моделей логического мышления. Nvidia публикует подробную методологию, включая более 10 триллионов токенов до- и постобучения, 15 сред для обучения с подкреплением и рецепты оценки качества. Nemotron 3 Super оптимизирована под запуск на платформе Nvidia Blackwell в формате NVFP4, что снижает требования к памяти и в теории до четырёх раз ускоряет вывод по сравнению с FP8 на Nvidia Hopper без потери точности.
Модель уже доступна разработчикам и исследователям. Доступ к Nemotron 3 Super можно получить через build.nvidia.com, Hugging Face, OpenRouter и Perplexity, а также через облачные платформы Google Cloud Vertex AI, Oracle Cloud Infrastructure, CoreWeave, Together AI, Baseten, Cloudflare, DeepInfra, Fireworks AI и Modal. Кроме того, Nemotron 3 Super представлена в виде микросервиса Nvidia NIM для развёртывания в локальной инфраструктуре и в облаке, а платформа Nvidia NeMo позволяет проводить тонкую настройку модели или использовать её как основу для собственных решений в области агентного ИИ.
