NVIDIA и AMD готовят кастомную HBM4 с интегрированной логикой для новых ускорителей ИИ
NVIDIA и AMD договорились с поставщиками памяти о выпуске первых в отрасли кастомных чипов HBM4. По данным аналитиков SemiAnalysis, такие микросборки появятся уже в 2026 году и станут основой будущей архитектуры Rubin у NVIDIA и линейки Instinct MI400 у AMD, обеспечивая прирост пропускной способности и снижение задержок при обучении и инференсе нейросетей.
Главное отличие HBM4 от нынешней HBM3E — возможность встроить в 12-слойный стек DRAM собственный базовый кристалл логики. Индивидуальная маршрутизация данных под конкретные алгоритмы ИИ позволит ускорить обмен между ядрами GPU и памятью, а также снизить энергопотребление. Ожидается, что каждый стек обеспечит более 1,2 ТБ/с, а суммарная шина достигнет десятков терабайт в секунду при заметно меньших задержках.
Переход будет эксклюзивным: конкуренты вроде Broadcom или MediaTek получат стандартную HBM4E лишь к 2027-му. За год преимущества заказных конфигураций позволят NVIDIA и AMD укрепить позиции на быстрорастущем рынке ИИ-ускорителей для дата-центров и облачных сервисов.
Пока идёт подготовка к HBM4, Samsung уже начала массово отгружать NVIDIA до 50 тыс. 12-слойных модулей HBM3E. Южнокорейский гигант снизил цену, чтобы потеснить SK Hynix, и одновременно инвестирует в собственные линии под HBM4: наличие как DRAM-, так и логических фабрик под одной крышей упрощает выпуск кастомных стэков.
Для NVIDIA это шанс улучшить маржинальность новой серии Blackwell Ultra, а затем плавно перейти на Rubin. AMD, в свою очередь, рассчитывает на Instinct MI400 в «рековом» масштабе, чтобы наращивать долю в сегменте ИИ-обучения.
Показательно, что вопрос производительности смещается от вычислительных блоков к памяти. С учётом растущего «памятного барьера» в ИИ-задачах именно HBM4 с интегрированной логикой может стать следующей точкой роста, а Samsung, SK Hynix и Micron — главными бенефициарами возросших объёмов заказов.