Google Gemini, l’assistente AI integrato in Gmail, Drive, Calendar e altri servizi, è al centro di una controversia che potrebbe mettere a rischio informazioni sensibili. Alcuni ricercatori hanno individuato una falla nota come prompt injection invisibile (o ASCII smuggling) che consente a malintenzionati di nascondere istruzioni malevole in email o inviti tramite app del calendario, invisibili all’occhio umano ma lette dal modello AI.
Quando un utente chiede a Gemini di “riassumere una email” o “mostrare gli impegni della settimana”, l’assistente può processare anche le istruzioni nascoste e generare messaggi apparentemente legittimi — ad esempio avvisi di sicurezza falsati, richieste di accesso o suggerimenti di eseguire azioni pericolose. In sostanza, il modello interpreta i comandi nascosti come parte legittima dell’input e li esegue.
Questa tecnica è particolarmente insidiosa perché il testo malevolo è formattato bianco su bianco o con caratteri di dimensione zero, quindi invisibile all’utente; non sono necessari link sospetti o allegati, Gemini è profondamente integrato nei servizi di Google Workspace, aumentando il potenziale impatto: la persona dall’altra parte può sfruttare l’accesso ai messaggi, documenti o calendario dell’utente.
Non una, ma più segnalazioni confermano il fenomeno. Un bug simile è già stato usato in passato per far comparire falsi avvisi di sicurezza, che invitavano l’utente a compiere azioni dannose. Un altro attacco sfrutta inviti con istruzioni nascoste che rimangono dormienti finché Gemini non elabora l’evento. C’è un punto chiave: Google ha dichiarato che non considera questa falla come un bug, ma come un aspetto di social engineering. In altre parole, sta dicendo che la responsabilità ricade sull’utente che interagisce con Gemini, non che sia un difetto da correggere.
Perché è pericoloso e cosa significa
Esposizione dei dati: messaggi privati, dettagli degli eventi, contenuti sensibili potrebbero essere letti o trasmessi grazie all’AI che agisce come tramite.
Attacchi phishing evoluti: l’utente potrebbe ricevere messaggi che sembrano generati da servizi ufficiali, con richieste credibili che inducono a condividere credenziali o dati personali.
Compromissione dell’integrità del sistema: l’IA potrebbe essere manipolata per eseguire comandi non previsti, alterare dati o agire su app collegate.
Cosa fare per proteggersi
Ecco alcuni consigli pratici che puoi subito applicare:
Non usare la funzione “riassumi questa email” per messaggi sospetti o non verificati.
Presta attenzione agli inviti, soprattutto se contengono dettagli incomprensibili o estranei.
Evita di fidarti ciecamente dei messaggi generati da Gemini: anche se appaiono ufficiali, trattali con cautela.
Tieni attive impostazioni di sicurezza: controlla le impostazioni di privacy e elimina automaticamente le attività dopo un certo periodo.
Usa l’autenticazione a due fattori (2FA) su tutti i servizi Google.
Aggiorna le app di Google e Gemini non appena sono disponibili patch di sicurezza.
L’idea alla base di Gemini è ambiziosa: unire assistenza AI, produttività e servizi quotidiani. Ma le vulnerabilità evidenziate mostrano che quando l’IA ha accesso a strumenti integrati nei nostri flussi digitali, il margine di manovra degli attacchi aumenta. Finché Google non decide di intervenire in modo più deciso, la prudenza resta l’arma migliore. Non dare mai per scontato che un avviso «ufficiale» generato da un’AI sia genuino, specie in ambienti dove si gestiscono dati sensibili.
