L’intelligenza artificiale ha dato inizio ad un mondo in cui chatbot e assistenti virtuali sono diventati strumenti imprescindibili nella quotidianità degli utenti. Tale rapida evoluzione ha, però, aperto le porte a nuove forme di vulnerabilità informatica. A tal proposito, è emersa una scoperta di Johann Rehberger, esperto di sicurezza online. Rehberger ha individuato un metodo per manipolare la memoria a lungo termine di Gemini, l’assistente basato su AI di Google. In tal modo ha evidenziato una falla critica nel sistema.
Gemini presenta una falla: ecco di cosa si tratta
L’attacco sfrutta una tecnica chiamata “delayed tool invocation” (invocazione ritardata degli strumenti). Quest’ultima consente di aggirare le protezioni implementate da Google per salvaguardare i dati degli utenti. Tale exploit si basa sull’iniezione indiretta di prompt. Una strategia che permette di ingannare il sistema inducendolo a memorizzare informazioni false in modo permanente. In pratica, l’attaccante può caricare un documento contenente istruzioni nascoste e chiedere al sistema di riassumerlo. Gemini, seguendo il flusso delle operazioni, genera un riepilogo che incorpora subdolamente richieste per salvare dati non autentici. Il trucco si attiva quando l’utente risponde a domande con parole chiave predefinite come “sì” o “certo”.
Google ha minimizzato la gravità della vulnerabilità. L’azienda di Mountain View, infatti, l’ha definendola a basso rischio., sottolineando che richiede diverse interazioni specifiche per essere sfruttata con successo. Inoltre, Gemini avvisa gli utenti ogni volta che una nuova informazione viene memorizzata a lungo termine. Offrendo una possibilità di monitoraggio e correzione.
Suddetto caso solleva interrogativi più ampi sulla sicurezza dei modelli linguistici di grandi dimensioni. L‘hacking dell’intelligenza artificiale non riguarda solo il furto di dati. Coinvolge anche la possibilità di diffondere disinformazione e manipolare le interazioni future. È quindi fondamentale che le aziende tech continuino a migliorare le loro difese. Inoltre, gli utenti devono acquistare maggiore consapevolezza sui rischi legati a tali tecnologie.
