X

Google выпустила открытые ИИ‑модели перевода TranslateGemma для 55 языков

Google представила TranslateGemma — набор открытых моделей машинного перевода на основе архитектуры Gemma 3. Линейка включает три варианта с 4, 12 и 27 млрд параметров и поддерживает перевод между 55 языками, включая малоресурсные. Компактная модель 4B нацелена на мобильные и периферийные устройства, версия на 12B — на потребительские ноутбуки и локальные среды, а 27B предназначена для развертывания в облаке на одном GPU H100 или тензорном процессоре.

По данным Google, TranslateGemma показывает заметный прирост качества по сравнению с базовыми моделями Gemma 3 аналогичного и даже большего размера. В бенчмарке MetricX 12‑миллиардная модель TranslateGemma получила 3,6 балла, обойдя Gemma 3 на 27 млрд параметров (4,04 балла). Относительно Gemma 3 на 12 млрд параметров (4,86 балла) уровень ошибок снизился примерно на 26%. Существенные улучшения зафиксированы для всех 55 языковых пар: например, число ошибок при переводе с английского на исландский сократилось на 30%, а на суахили — на 25%.

Для достижения таких показателей применена двухэтапная схема обучения. Сначала модели обучаются на параллельных корпусах, включающих как человеческие переводы, так и синтетические данные, сгенерированные другими нейросетями. Затем следует этап обучения с подкреплением: несколько автоматических оценочных моделей ранжируют варианты перевода без привлечения эталонных человеческих текстов, отдельно учитывается естественность звучания результата. При этом около 30% обучающей выборки составляют общие данные, благодаря чему TranslateGemma может работать не только как специализированный переводчик, но и как универсальный чат‑бот.

Google отмечает, что профессиональные переводчики в целом подтвердили улучшение качества перевода, за исключением пары «японский–английский», где выявлено ухудшение, предположительно из‑за обработки имён собственных. Все три модели TranslateGemma сохранили мультимодальные возможности Gemma 3: они умеют переводить текст на изображениях без дополнительного обучения, а улучшения в качестве перевода распространяются и на визуальные задачи, что подтверждают тесты в бенчмарке Vistra. Для максимального качества компания рекомендует формулировать промпты так, чтобы модель действовала как «профессиональный переводчик» с учётом культурных нюансов. Новые открытые модели уже доступны разработчикам на платформах Kaggle и Hugging Face.