La traduzione automatica torna al centro della strategia AI di Google. L’azienda di Mountain View ha annunciato TranslateGemma, una nuova famiglia di modelli di traduzione open-weight, pensata per essere scaricata, utilizzata e adattata liberamente da sviluppatori, ricercatori e aziende. Il progetto si basa su Gemma 3, uno dei pilastri dell’attuale ecosistema di modelli di Google, e punta a rendere la traduzione più accessibile e riutilizzabile anche al di fuori dei classici servizi consumer.
Un modello pensato per casi d’uso reali
TranslateGemma è progettato per supportare fino a 55 lingue, includendo idiomi molto diffusi come spagnolo, francese, cinese e hindi. Non si tratta quindi di un esercizio sperimentale, ma di una soluzione pensata per coprire scenari concreti, soprattutto per chi deve integrare funzioni di traduzione all’interno di applicazioni, piattaforme o flussi di lavoro personalizzati.
Google ha chiarito fin da subito il posizionamento delle diverse varianti. Il modello 4B è orientato all’inferenza su dispositivi mobili, mentre la versione 12B risulta più adatta all’uso su laptop consumer. Il modello 27B, invece, richiede risorse decisamente più importanti ed è pensato per l’esecuzione in cloud, con una singola NVIDIA H100 indicata come configurazione di riferimento. Un’indicazione utile per valutare rapidamente l’infrastruttura necessaria.
Buone prestazioni anche con testo e immagini
Dai test emerge un comportamento interessante anche nella traduzione del testo presente nelle immagini. Sul benchmark Vistra, TranslateGemma ha ottenuto risultati superiori rispetto ad altri modelli, pur non essendo stato addestrato in modo specifico per questo tipo di input. Un aspetto che suggerisce una buona flessibilità, soprattutto in contesti come documenti digitalizzati o materiali visivi complessi.
Addestramento in due fasi e approccio open
Per raggiungere questi risultati, Google ha adottato un processo di addestramento articolato. La prima fase di Supervised Fine-Tuning combina traduzioni realizzate da esseri umani con dati sintetici di alta qualità generati dai modelli Gemini. Successivamente entra in gioco il Reinforcement Learning, guidato da metriche avanzate come MetricX-QE e AutoMQM, pensate per migliorare naturalezza e coerenza contestuale.
I modelli TranslateGemma sono già disponibili su Kaggle e Hugging Face, confermando la volontà di Google di continuare a investire sull’ecosistema open in un momento in cui la traduzione automatica sta tornando a essere uno dei terreni più interessanti di confronto nell’AI.
