X

Microsoft представила инструментарий для запуска кода CUDA на GPU AMD — реальный вызов доминированию Nvidia

Корпорация Microsoft разработала собственный набор инструментов, который позволяет запускать модели и алгоритмы, написанные под CUDA, на графических ускорителях AMD. Компания рассчитывает снизить зависимость облака Azure от оборудования Nvidia и заметно сократить расходы на обслуживание ИИ-сервисов.

Новый софт перехватывает вызовы API CUDA во время исполнения и переводит их в инструкции, понятные среде ROCm. По сути это слой совместимости, близкий по идеологии к открытому проекту ZLUDA, однако Microsoft дорабатывает решение под собственные задачи и тесно сотрудничает с AMD для оптимизации работы на MI300X и будущих MI400-сериях. В результате перенос модели не требует перекомпиляции или переписывания кода — достаточно пересобрать бинарный пакет с подключённым конвертером.

Ставка на «красные» ускорители обусловлена не только ценой. Карты AMD зачастую предлагают больший объём памяти HBM и сопоставимую либо более высокую пик-производительность FP16/FP8, что критично при инференсе крупных языковых моделей. По расчётам Microsoft, перевод рабочих нагрузок с NVIDIA H100 на AMD MI300X способен снизить стоимость инференса на десятки процентов без потери качества результата.

Доминирование Nvidia в сфере ИИ во многом держится на экосистеме CUDA, ставшей отраслевым стандартом за пятнадцать лет. Альтернативная платформа ROCm развивается медленнее, поэтому большинство библиотек — от cuDNN до TensorRT — жёстко привязаны к «зелёным» GPU. Появление функционального «моста» между двумя мирами потенциально меняет расстановку сил и открывает разработчикам путь к более гибкой и дешёвой инфраструктуре.

В Microsoft утверждают, что первые внутренние тесты прошли успешно, а открытый релиз инструментария может состояться уже до конца года. Если проект выйдет за пределы корпоративной кухни и получит статус open source, это укрепит позиции AMD на облачном рынке и заставит Nvidia ускорить развитие собственных программных стеков.

Напомним, Microsoft — один из крупнейших поставщиков облачных сервисов и инвестор OpenAI. Бурный рост генеративного ИИ требует непрерывного расширения парка GPU, и именно стремление оптимизировать эти затраты подтолкнуло компанию к разработке решения по запуску CUDA-кода на видеокартах AMD.