Несмотря на лидерство Nvidia, экосистема ускорителей искусственного интеллекта начинает отходить от модели «всё на одной платформе». Согласно свежему опросу Liquid Web среди 252 инженеров и руководителей ИИ-проектов, 32% команд используют альтернативы – Google TPU, видеокарты AMD или CPU-ускорители Intel – хотя бы для части вычислительных задач. При этом Nvidia остаётся базовым выбором для 68% респондентов, но уже не является единственным «по умолчанию» решением.
Главные причины миграции предсказуемы: знакомство с конкретным оборудованием и прежний опыт называют 43% опрошенных, экономию бюджета – 35%, убедительные результаты бенчмарков – 37%. Дефицит и высокие цены на топовые GPU бьют по календарям: 42% проектов вынуждены сокращать объём обучения моделей, ещё 14% отменяют отдельные инициативы из-за нехватки или дороговизны железа.
Гибридная архитектура становится новой нормой. Более половины участников совмещают локальные серверы и облачные сервисы, а значительная часть планирует наращивать расходы на аренду вычислительных мощностей в ближайший год. При этом эффективность дата-центров выходит на первый план: 45% команд отмечают, что энергопотребление и охлаждение уже влияют на выбор платформы, но лишь 13% действительно инвестируют в тонкую настройку энергопрофиля.
Эксперты Liquid Web подчёркивают, что повышенный интерес к Google TPU, линейке AMD Instinct и специализированным процессорам Intel Gaudi объясняется не только логистикой, но и эволюцией софта: популярные фреймворки TensorFlow, PyTorch и JAX получают всё более зрелую поддержку этих архитектур. На фоне высокого спроса на ускорители NVIDIA A100 и H100, а также постоянного роста цен на них, компании всё чаще выбирают мультиплатформенный подход, минимизируя риски простоев и повышая гибкость инфраструктуры.
С учётом сохранения ажиотажа вокруг генеративных нейросетей аналитики ожидают, что доля альтернативных решений продолжит расти, а конкуренция среди поставщиков ускорителей ИИ усилится уже в 2024 году.