X

ИИ-инференс становится новым полем битвы для Nvidia, Google и других чипмейкеров

Рынок чипов для искусственного интеллекта стремительно смещает фокус с обучения моделей к их инференсу, и именно здесь формируется новая линия фронта между Nvidia, Google и другими игроками. Если раньше в сегменте ИИ-ускорителей основными соперниками Nvidia считались лишь AMD и в меньшей степени Intel, то теперь Google с её собственными процессорами TPU всё активнее претендует на роль полноправного конкурента.

Исторически Google была одним из крупнейших потребителей ускорителей Nvidia для своих дата-центров. В течение последних трёх лет глава компании Сундар Пичаи в большинстве квартальных отчётных конференций отдельно подчёркивал использование решений Nvidia во внутренней инфраструктуре Google. Однако запуск ИИ-модели Gemini 3 стал переломным моментом: в компании заявили, что обучили её исключительно на собственных TPU, что фактически превратило эти чипы в живую витрину технологических возможностей Google в задачах обучения и инференса.

Успех Gemini 3 стал мощной рекламой TPU, и теперь Google, по сообщениям, ведёт переговоры о поставках своих ИИ-процессоров сторонним разработчикам. Ранее TPU применялись только для внутренних сервисов и Google Cloud, но рынок инференса растёт настолько быстро, что компания готова превратить их в коммерческий продукт. Интерес к TPU, по слухам, проявляет и Meta Platforms, которая в то же время заключила контракт на поставку центральных процессоров Nvidia, укрепляя более молодой для Nvidia бизнес CPU для дата-центров.

Чтобы ускорить массовое внедрение TPU в серверные решения, Google намерена финансово поддерживать компании, использующие её чипы при построении инфраструктуры для ИИ-инференса. Так, в капитал стартапа Fluidstack планируется вложить до $100 млрд — по сути, это зеркалирует стратегию Nvidia, которая уже инвестировала в провайдеров облачных услуг CoreWeave, Nebius и Lambda, стимулируя развёртывание ферм на базе своих GPU.

Тем не менее потеснить Nvidia в ближайшей перспективе будет сложно не только из-за её технологического и программного преимущества в задачах ИИ-инференса, но и по причине дефицита контрактных производственных мощностей. Nvidia уже стала крупнейшим клиентом TSMC, ведущего производителя заказных чипов. В условиях ограниченного выпуска даже у Apple возникают сложности с получением достаточного количества передовых кристаллов. Для Google это означает, что она физически не сможет произвести на мощностях TSMC такой объём TPU, чтобы одновременно закрыть собственные потребности и выйти на масштабные внешние поставки.

TPU представляют собой специализированные процессоры, оптимизированные под матричные операции, лежащие в основе современных нейросетей. Архитектура с массивом умножителей 256×256 позволяет выполнять миллиарды операций в секунду с высокой энергоэффективностью, что критично для массового ИИ-инференса в облаке. Именно в этом сегменте в ближайшие годы развернётся ключевая борьба: кто обеспечит наилучшее соотношение производительности, стоимости и энергоэффективности при выполнении ИИ-запросов в реальном времени, тот и получит львиную долю рынка дата-центров нового поколения.