Google presenta unha nova familia de modelos de IA para a tradución automática

xoves, 15 de xaneiro do 2026 Redacción

Google presentou TranslateGemma, unha nova familia de modelos abertos de tradución automática baseada en Gemma 3 que supón un avance relevante no ámbito da tradución multilingüe eficiente. A nova suite está dispoñible en tres tamaños (4B, 12B e 27B parámetros) e foi deseñada para facilitar a comunicación entre persoas en 55 linguas, independentemente do dispositivo ou do contorno no que se execute.
TranslateGemma nace da destilación do coñecemento dos seus modelos máis avanzados cara a arquitecturas abertas, compactas e de alto rendemento. O obxectivo é ofrecer unha alternativa que combine eficiencia computacional e calidade lingüística, sen obrigar a asumir concesións significativas nun ou noutro aspecto.
Un dos datos máis salientables da avaliación técnica é o rendemento do modelo intermedio. O TranslateGemma de 12.000 millóns de parámetros supera o modelo base Gemma 3 de 27.000 millóns na métrica MetricX empregada sobre o benchmark WMT24++, malia contar con menos da metade dos parámetros. Para os desenvolvedores, isto tradúcese na posibilidade de acadar traducións de alta fidelidade cun menor custo computacional, maior rendemento e menor latencia. Pola súa banda, a versión de 4B ofrece resultados comparables aos do modelo base de 12B, o que a converte nunha opción especialmente atractiva para inferencia en dispositivos móbiles.
As probas realizáronse sobre o conxunto de datos WMT24++, que inclúe 55 linguas pertencentes a familias lingüísticas moi diversas, con idiomas de alta, media e baixa dispoñibilidade de recursos. En todos os casos, TranslateGemma reduce de maneira significativa a taxa de erro fronte ao modelo Gemma de referencia, combinando melloras de calidade cun maior nivel de eficiencia.
O desenvolvemento destes modelos baséase nun proceso de axuste fino en dúas fases. Nunha primeira etapa de aprendizaxe supervisada, os modelos Gemma 3 foron adestrados con datos paralelos que combinan traducións humanas e traducións sintéticas de alta calidade xeradas por modelos Gemini, o que permitiu ampliar a cobertura lingüística e mellorar o rendemento en linguas con poucos recursos. Nunha segunda fase, aplicouse aprendizaxe por reforzo apoiada nun conxunto de modelos de recompensa e métricas avanzadas, orientadas a obter traducións máis naturais, precisas e coherentes co contexto.
Ademais das 55 linguas avaliadas de forma exhaustiva, Google ampliou o adestramento a preto de 500 pares lingüísticos adicionais. A compañía concibe TranslateGemma como unha base sólida para que investigadores e desenvolvedores poidan adaptar e axustar os modelos a necesidades específicas ou mellorar a calidade en linguas menos representadas, mesmo aínda que estas combinacións adicionais non conten polo momento con métricas de avaliación consolidadas.
TranslateGemma mantén tamén as capacidades multimodais herdadas de Gemma 3. As probas no benchmark Vistra indican que as melloras en tradución textual repercuten positivamente na tradución de texto inserido en imaxes, mesmo sen un adestramento multimodal específico durante o proceso de creación destes modelos.
A familia de modelos foi concibida para funcionar en contornos moi diversos. A versión de 4B está optimizada para dispositivos móbiles; a de 12B pode executarse en portátiles de consumo, facilitando o desenvolvemento local; e a de 27B está orientada a escenarios de máxima fidelidade, con execución nunha única GPU H100 ou en TPU na nube.
Con este lanzamento, Google reforza a súa aposta polos modelos abertos e pola tradución automática como ferramenta clave para reducir barreiras lingüísticas. TranslateGemma queda dispoñible para a comunidade investigadora e desenvolvedora a través do seu informe técnico, plataformas de distribución de modelos e ferramentas de despregadura na nube, co obxectivo de fomentar novas aplicacións e liñas de investigación no eido da tradución multilingüe.