X

Samsung выводит на рынок энергоэффективную память SOCAMM2 на базе LPDDR5X для ИИ‑серверов

Samsung объявила о выводе на рынок серверной памяти нового формата SOCAMM2 (Small Outline Compression Attached Memory Module 2), разработанной специально для центров обработки данных с ускорением искусственного интеллекта. Модули основаны на чипах LPDDR5X и призваны обеспечить серверным системам преимущества мобильной памяти — сниженную энергоемкость и высокую пропускную способность — без необходимости припаивать кристаллы напрямую к плате.

По данным Samsung, SOCAMM2 обеспечивает более чем двукратное увеличение пропускной способности по сравнению с традиционными модулями RDIMM при одновременном снижении энергопотребления более чем на 55%. При этом новый формат рассчитан на стабильную работу под непрерывными ИИ‑нагрузками, характерными для современных систем вывода и инференса, где память все чаще становится одним из ключевых факторов совокупной стоимости владения стойкой.

SOCAMM2 ориентирована на гибридные процессорные и GPU‑конфигурации, в том числе суперчипы CPU–GPU, которым требуется большой пул системной памяти с высокой скоростью отклика и в более компактном форм‑факторе, чем у типичных серверных модулей DIMM. По сравнению с распаянной LPDDR‑памятью новый модульный подход упрощает модернизацию: память можно заменить или обновить без смены всей материнской платы, что улучшает ремонтопригодность и снижает простои инфраструктуры.

Компактные размеры SOCAMM2 и горизонтальное размещение на плате высвобождают дополнительное пространство для систем охлаждения, что важно для высокоплотных ИИ‑кластеров. Упрощается компоновка серверов и организация воздушных потоков, что, в сочетании с более низким тепловыделением модулей, помогает сдерживать рост энергозатрат и нагрузку на системы охлаждения в дата‑центрах.

Samsung подчеркивает, что SOCAMM2 дополняет, а не замещает классические серверные RDIMM, остающиеся основой универсальных высокопроизводительных платформ. Новый формат позиционируется как специализированное решение для серверов следующего поколения с ИИ‑ускорением, где приоритетами становятся энергоэффективность и масштабируемость памяти. Компания уже сотрудничает с Nvidia по интеграции SOCAMM2 в будущие AI‑инфраструктуры, в том числе в рамках подготовки к запуску системы Vera Rubin в 2026 году, и намерена расширять портфель серверной LPDDR‑памяти по мере роста масштабов и сложности ИИ‑нагрузок.