Компания Micron анонсировала серверный модуль оперативной памяти SOCAMM2 объёмом 256 ГБ, ориентированный на системы для искусственного интеллекта и аналитики данных. Новинка не предназначена для потребительского рынка и создавалась в тесном сотрудничестве с Nvidia специально для её новых ИИ‑ускорителей и платформы Vera Rubin.
SOCAMM2 основан на низкоэнергетической LPDDR5X‑памяти и призван заменить традиционные RDIMM и LRDIMM в сценариях, где критичны плотность, пропускная способность и энергопотребление. По данным Micron, модуль обеспечивает вдвое более высокую пропускную способность по сравнению с типичными RDIMM, потребляя при этом до 55% меньше энергии и занимая втрое меньше места на плате. Это позволяет существенно нарастить общую ёмкость памяти на узел, сохранив компактный форм‑фактор и снизив требования к охлаждению.
Внутренние тесты Micron показывают, что серверы с установленными 256 ГБ модулями SOCAMM2 способны продемонстрировать до четырёхкратного ускорения рабочих нагрузок Apache Spark SVM. Рост производительности достигается за счёт увеличенного объёма оперативной памяти и улучшенной локальности данных, что уменьшает накладные расходы при работе с крупными наборами данных и снижает потребность в обращениях к более медленным уровням хранения.
Формат SOCAMM2 соответствует стандарту JEDEC, что упрощает интеграцию и последующие апгрейды без замены материнских плат, сокращая время простоя и стоимость обслуживания центров обработки данных. Ранее Micron уже предлагала модули SOCAMM2 объёмом до 192 ГБ, выполненные по передовому техпроцессу 1‑gamma DRAM с более чем 20% улучшением энергоэффективности. Новый вариант на 256 ГБ логично продолжает эту линейку и нацелен на растущий сегмент серверов для ИИ‑нагрузок, где критичны максимальная плотность ОЗУ и энергоэффективность.