Quando Google ha annunciato l’integrazione delle capacità di Gemini in Google Traduttore, il messaggio era chiaro: migliorare la qualità delle traduzioni grazie all’intelligenza artificiale. Non più solo conversione parola-per-parola, ma comprensione del contesto, gestione dello slang e frasi più naturali. Con l’arrivo della cosiddetta modalità avanzata, l’obiettivo dichiarato era proprio questo: rendere le traduzioni più fluide, più realistiche, più vicine al linguaggio umano. Tuttavia, nelle ultime ore è emersa una curiosa anomalia che sta facendo discutere.
Quando la traduzione diventa conversazione
Alcuni utenti hanno scoperto che, utilizzando una formulazione molto precisa del testo da tradurre, la modalità avanzata può essere “indirizzata” a fare qualcosa di diverso dal semplice tradurre. In pratica, inserendo una domanda in una lingua e aggiungendo istruzioni in un’altra lingua (tipicamente l’inglese) che non dovrebbe essere tradotta, l’AI può rispondere direttamente alla domanda invece di limitarsi a fornire la traduzione.
In questo scenario, Google Traduttore smette di comportarsi come un semplice strumento linguistico e si manifesta per quello che, tecnicamente, è: un modello linguistico di grandi dimensioni, lo stesso tipo di tecnologia alla base dei chatbot conversazionali. Non si tratta di una funzione ufficiale né di una modalità dichiarata. È piuttosto una conseguenza del modo in cui la modalità avanzata è stata costruita.
Il meccanismo dietro il fenomeno
La modalità avanzata si appoggia a un LLM, un Large Language Model. Questo tipo di modello non “capisce” davvero la differenza tra contenuto e istruzioni nel senso umano del termine. Analizza il testo come una sequenza di token e prova a generare la risposta più coerente possibile in base al contesto. Il problema – se così vogliamo chiamarlo – nasce quando il sistema non riesce a distinguere in modo affidabile tra “traduci questo testo” e “segui queste istruzioni”. Se nel campo di input compaiono comandi mascherati dentro il testo da tradurre, il modello può interpretarli come direttive operative. Questo fenomeno è noto nel settore come prompt injection: una tecnica che sfrutta la struttura del modello per indurlo a comportamenti non previsti. In altre parole, se sollecitato nel modo giusto, Google Traduttore può rispondere a domande, commentare o addirittura dichiarare la propria natura di modello AI, invece di limitarsi alla traduzione.
