Компания Arm на конференции Supercomputing ’25 объявила о внедрении интерфейса NVLink Fusion в своё серверное портфолио Neoverse. Поддержка фирменной шины Nvidia позволит лицензиатам Arm выпускать процессоры, изначально рассчитанные на прямое подключение к ускорителям H100, H200 и их наследникам без внешних мостов и PCIe-ограничений.
Arm получит доступ к интеллектуальной собственности NVLink и сможет включать её IP-блоки в готовые ядра и платформы. Производителям SoC это снимает часть инженерных рисков: достаточно выбрать Arm Neoverse с NVLink, чтобы построить сервер с восемью GPU Nvidia и получить пропускную способность межпроцессорных каналов до 1,8 Тбайт/с на сокет.
Для гиперскейлеров — Amazon AWS, Google, Microsoft — это шанс выпускать собственные «полукастомные» чипы: CPU на основе Arm, GPU от Nvidia, единая когерентная память и единый стек ПО. Ранее о внедрении NVLink заявили Intel и Samsung, теперь экосистема расширилась до четырёх производителей процессоров, что усиливает стандартизацию связки CPU+GPU в центрах обработки данных.
Arm рассчитывает довести долю своих решений в сегменте серверных компонентов до 50%, а поддержка NVLink даёт важное конкурентное преимущество. Появятся процессоры, способные соперничать с Nvidia Grace и Intel Xeon на «родной» территории — в AI-кластерax, где GPU Nvidia задают тон.
Для Nvidia союз с Arm означает рост парка совместимых процессоров без необходимости разрабатывать их самостоятельно. Чем больше систем на базе Arm будет оснащаться NVLink, тем глубже компания закрепится в будущих суверенных ИИ-проектах и корпоративных облаках.
Сотрудничество выглядит логичным продолжением отношений компаний, несмотря на сорвавшуюся сделку по покупке Arm в 2020 году. Nvidia остаётся миноритарным акционером британского разработчика, основным владельцем которого выступает SoftBank.
Первые коммерческие процессоры Arm с поддержкой NVLink Fusion ожидаются ближе к 2026 году. Эксперты считают, что именно тогда на рынке архитектур для дата-центров начнётся новый этап конкуренции, где фактор связности CPU и GPU станет критически важным для скорости обучения больших языковых моделей и экономичности ИИ-кластеров.