Arm официально представила AGI CPU — первый в своей истории готовый серверный процессор, ориентированный на центры обработки данных для искусственного интеллекта. Линейка чипов, флагман которой включает до 136 ядер Neoverse V3, нацелена на так называемую агентную инфраструктуру ИИ и должна обеспечить более чем двукратный рост производительности на стойку по сравнению с современными системами на x86.
AGI CPU производится по 3-нм техпроцессу, поддерживает до 6Тбайт оперативной памяти на один чип и обеспечивает пропускную способность 6Гбайт/с на ядро при задержке менее 100нс. На каждое ядро выделен собственный программный поток, что, по заявлениям Arm, исключает троттлинг и простой потоков под длительной нагрузкой. Процессор работает на частоте до 3,7ГГц, имеет TDP 300Вт, оснащён 2Мбайт кеш-памяти L2 на ядро, поддерживает память DDR5-8800, 96 линий PCIe 6.0, а также интерфейсы CXL 3.0 и AMBA CHI.
В Arm подчёркивают, что AGI CPU предназначен не для выполнения самих ИИ‑моделей, а для оркестрации кластеров ускорителей, управления памятью, хранилищем и потоками данных в ЦОД. В референсной конфигурации сервер на базе двух AGI CPU в форм-факторе 1OU даёт до 272 ядер на блейд. Варианты с воздушным охлаждением позволяют разместить до 8160 ядер на одну стойку, а системы с жидкостным охлаждением — более 45 000 ядер; в частности, совместно с Supermicro разработана платформа мощностью 200кВт, вмещающая до 336 таких процессоров.
Ключевым партнёром и соразработчиком AGI CPU выступает Meta, которая планирует использовать новые чипы совместно со своими ИИ‑ускорителями MTIA для крупномасштабной оркестрации ИИ-нагрузок. Среди подтверждённых заказчиков также значатся OpenAI, Cloudflare, Cerebras, Rebellions, SAP и SK Telecom, а ASRock Rack, Lenovo, Quanta и Supermicro уже создают серверные системы на базе новинки. По данным Arm, экосистема AGI CPU насчитывает более 50 партнёров, включая AWS, Google, Microsoft, Nvidia, Samsung, TSMC и Micron. Первые образцы систем уже доступны, а массовое развёртывание ожидается во второй половине года.