Alibaba представила Qwen3-Next-80B-A3B: новая ИИ-модель в 10 раз быстрее и дешевле предшественницы
Alibaba открыла доступ к первой модели на архитектуре Qwen3-Next — Qwen3-Next-80B-A3B. При том же объёме знаний, 80 млрд параметров, активными в каждом токене остаются лишь 3 млрд, что стало возможным благодаря разреженной «смеси экспертов». Такой подход позволил обучить модель в 10 раз дешевле Qwen3-32B и добиться десятикратного прироста скорости, сохранив точность на уровне флагманской Qwen3-235B.

Разработчик подчёркивает, что новая линейка рассчитана не только на дата-центры: оптимизация памяти и вычислений даёт шанс запускать Qwen3-Next даже на продвинутых настольных ПК. База знаний охватывает 119 языков, а варианты Base, Instruct и Thinking закрывают сценарии от генерации текста до сложных рассуждений. Специализированная версия Qwen3-Next-80B-A3B-Thinking по итогам внешних бенчмарков опередила не только предшественницу, но и Google Gemini-2.5-Flash-Thinking.
Модель уже доступна в Alibaba Cloud через API, а также размещена на Hugging Face и ModelScope, что упрощает тестирование и интеграцию. Для локальных экспериментов компания опубликовала исходные веса и инструкции по развёртыванию.
Параллельно представлен предварительный релиз сверхкрупной Qwen3-Max-Preview с более чем триллионом параметров. Система умеет писать код, структурировать данные и даже генерировать воксельные сцены в стиле Minecraft. Работать с ней можно через Qwen Chat, OpenRouter и AnyCoder; тарифы составляют от 0,861 до 8,602 доллара за миллион входящих и исходящих токенов. Коммерческая эксплуатация потребует отдельной лицензии, а к финальному релизу Alibaba обещает ещё более высокую производительность.
Запуск Qwen3-Next и анонс Qwen3-Max укрепляют позиции Alibaba в гонке больших языковых моделей и выводят китайскую экосистему ИИ на уровень GPT-4o и Claude Opus 4, одновременно снижая порог входа для разработчиков и корпоративных клиентов.
