La crescente integrazione dei modelli di intelligenza artificiale nelle piattaforme digitali quotidiane solleva nuove domande sulla sicurezza e sull’affidabilità dei sistemi. A tal proposito, emerge uno scenario complesso che vede protagonista Google. L’azienda di Mountain View ha deciso di non intervenire su una vulnerabilità segnalata nel suo modello Gemini, nonostante la dimostrazione della sua pericolosità da parte di un ricercatore di sicurezza. La falla, nota come “ASCII smuggling”, permette di inserire nel testo caratteri invisibili che il modello interpreta come comandi operativi. Alterandone il comportamento senza che l’utente se ne accorga.
ASCII smuggling su Gemini non verrà corretta da Google
A scoprire la vulnerabilità è stato Viktor Markopoulos, ricercatore di FireTail. Quest’ultimo ha mostrato come testi apparentemente innocui possano contenere simboli nascosti in grado di modificare informazioni, riscrivere dettagli o generare risposte distorte. L’attacco sfrutta caratteri Unicode non visibili sullo schermo ma leggibili dall’AI, rendendo difficile individuare la manipolazione. Markopoulos ha anche confrontato il comportamento di Gemini con altri modelli sul mercato, affermando che il modello non mostra alcuna protezione contro il meccanismo dell’ASCII smuggling.
Google ha classificato il problema come un caso di ingegneria sociale, sottolineando che la responsabilità ricade sull’utente che fornisce input malevoli e non sul design del modello. La decisione di non correggere la vulnerabilità ha suscitato preoccupazioni, soprattutto perché Gemini è integrato con servizi sensibili come Gmail, Calendar e Documenti. Sistemi dove comandi nascosti potrebbero alterare dati o diffondere informazioni ingannevoli senza essere rilevati.
La vicenda evidenzia un tema più ampio per la sicurezza dell’AI: la difficoltà dei modelli di distinguere tra testo visibile e istruzioni nascoste. Un aspetto cruciale per la tutela dei dati e l’affidabilità delle risposte generate. Con la diffusione crescente di sistemi intelligenti in contesti professionali e personali, la capacità di prevenire manipolazioni invisibili diventa un indicatore importante della maturità tecnologica e della responsabilità delle aziende che sviluppano questi strumenti.
