Samsung первой на рынке вышла на массовое производство памяти HBM4 и параллельно ускоряет развёртывание линий упаковки с технологией Hybrid Copper Bonding (HCB) на фабрике в Чхонане. По данным отраслевых источников, график запуска был сдвинут вперёд по просьбе ключевого клиента — Nvidia, которой требуется гарантированный объём HBM4 под новые ИИ‑ускорители Rubin.
Оборудование для HCB‑линии ожидается в марте: сначала его задействуют для отладки процессов, тестовых прогонов и верификации качества уже упакованных стеков HBM4. Если промышленная обкатка пройдёт без сбоев и не ударит по выходу годных, производство будет переведено в полномасштабный режим, что позволит Samsung сократить сроки поставок и укрепить позиции в цепочке поставок AI‑ускорителей серверного класса.
HBM4 относится к четвёртому поколению высокопропускной памяти: стандарт JEDEC предусматривает 2048‑разрядный интерфейс и скорость до 11–13 Гбит/с на контакт, обеспечивая до 3,3 ТБ/с на один стек при ёмкости от 4 до 64 ГБ. Рост производительности здесь обеспечивается в первую очередь увеличением ширины шины и числа слоёв, а не чистой частотой, поэтому многослойные стеки становятся толще, сильнее греются и предъявляют повышенные требования к упаковке.
Hybrid Copper Bonding решает именно эту задачу: технология соединяет медные контакты между слоями памяти в вертикальном стеке, улучшая физический и электрический контакт и облегчая отвод тепла. По словам технического директора Samsung, HCB способна снизить тепловое сопротивление до 20% в лабораторных условиях, однако аналитики подчёркивают, что реальный эффект будет зависеть от стабильности процесса и себестоимости в условиях массового производства.
На рынке HBM‑памяти конкуренция между Micron, SK hynix и Samsung смещается от простых показателей скорости и полосы пропускания к качеству упаковки, термоуправлению, энергоэффективности и предсказуемости поставок. Для Nvidia и AMD, готовящих поколения Rubin и MI450, именно доступность HBM4 и зрелость упаковочных технологий становятся критическими факторами: задержка одной линии памяти способна сдвинуть релизы целых платформ для центров обработки данных и ИИ‑кластеров.