Una vulnerabilità scoperta nel modello Gemini di Google ha sollevato nuove preoccupazioni sulla sicurezza delle intelligenze artificiali. Il problema, chiamato “ASCII smuggling”, permette di inserire nel testo caratteri invisibili ma interpretabili dal modello, capaci di modificarne il comportamento e di indurlo a generare risposte errate o manipolate. Nonostante la gravità della scoperta, Google ha annunciato che non intende correggere il difetto, definendolo non una falla tecnica ma un “caso di ingegneria sociale”.
Il colosso di Mountain View ha spiegato che la vulnerabilità dipende dall’interazione con l’utente, sostenendo che spetta a chi utilizza Gemini evitare input malevoli. Una posizione che ha lasciato perplessi numerosi esperti di sicurezza, soprattutto considerando che Gemini è già integrato con servizi sensibili come Gmail, Calendar e Documenti. In questi contesti, l’inserimento di caratteri nascosti potrebbe consentire la manipolazione di dati o messaggi, creando rischi concreti di falsificazioni o attacchi mirati.
Google e “ASCII smuggling”: come funziona l’exploit scoperto da FireTail
La vulnerabilità è stata scoperta dal ricercatore Viktor Markopoulos di FireTail, che ha dimostrato come l’attacco sfrutti simboli di controllo o caratteri Unicode invisibili per introdurre comandi segreti nei testi elaborati dal modello. In pratica, un’email o un documento apparentemente innocuo può contenere istruzioni nascoste che inducono Gemini a modificare dati, alterare risposte o reinterpretare il contenuto originale.
Durante i test, Markopoulos ha confrontato il comportamento di Gemini con altri modelli AI come ChatGPT, Claude e Copilot. Mentre questi ultimi hanno bloccato o neutralizzato gli input sospetti, Gemini, insieme a Grok di Elon Musk e al modello cinese DeepSeek, ha elaborato comunque i comandi nascosti, mostrando una vulnerabilità effettiva nel filtraggio degli input.
Nel corso del 2025, Google aveva già risolto alcune falle note, riunite sotto la sigla “Gemini Trifecta”, relative a log, cronologie e riassunti di ricerca. Ma nel caso di ASCII smuggling, l’azienda ha scelto di non intervenire, giudicando il rischio “limitato” e attribuendo la responsabilità al comportamento dell’utente.
Gli esperti di sicurezza informatica considerano invece il problema un campanello d’allarme. Distinguere testo da codice nascosto è una delle sfide più urgenti per garantire l’affidabilità dei modelli linguistici di nuova generazione. Senza una protezione efficace, i sistemi di intelligenza artificiale rischiano di diventare strumenti manipolabili, soprattutto se impiegati in ambiti professionali o per comunicazioni sensibili.
