La sicurezza di Gemini è un tema che sta facendo discutere parecchio, e non senza motivo. Negli ultimi mesi si sono accumulate segnalazioni su vulnerabilità, falle nella gestione della privacy e rischi concreti legati all’uso quotidiano dell’assistente AI di Google. Un’analisi condotta da Surfshark ha provato a mettere ordine tra le preoccupazioni degli utenti, e il quadro che ne esce merita attenzione.
Partiamo da un dato che colpisce subito: le app che utilizzano Gemini registrano ben 22 diversi tipi di dati sugli utenti, il che lo rende uno dei chatbot più voraci in termini di raccolta informazioni. Si parla di conversazioni, prompt vocali, ricerche, file condivisi, immagini caricate, posizioni geografiche e persino informazioni su contatti e calendari. Google non lo nasconde, anzi lo dichiara apertamente. Il punto critico, però, è un altro: quei dati possono essere utilizzati per migliorare i prodotti e i sistemi di machine learning, a meno che non si disattivino manualmente determinati controlli. Tradotto: le informazioni sensibili degli utenti potrebbero finire nei dati di addestramento del modello.
C’è poi un aspetto che fa alzare ancora di più le antenne. Google specifica nel suo Privacy Hub che i dipendenti dell’azienda possono esaminare parti delle conversazioni per valutare la sicurezza e perfezionare le tecnologie. E anche cancellando la cronologia, le conversazioni già esaminate da esseri umani restano conservate per un massimo di tre anni. Il controllo dell’utente, insomma, ha un limite piuttosto netto.
Vulnerabilità reali: dal phishing al controllo della smart home
Oltre alla questione dei dati raccolti, sono emerse vulnerabilità tecniche vere e proprie che mettono in discussione la sicurezza di Gemini su un piano molto concreto. Un esempio è la vulnerabilità agli attacchi di ASCII smuggling: una tecnica che consente di inserire istruzioni nascoste dentro email o inviti del calendario. Quando qualcuno chiede a Gemini di riassumere quel testo, l’intelligenza artificiale legge anche i comandi occulti e può generare falsi avvisi di sicurezza o indurre a cliccare su link dannosi.
Ancora più inquietante è quanto scoperto da ricercatori dell’Università di Tel Aviv. Un invito apparentemente innocuo inserito in Google Calendar può essere sfruttato per ingannare Gemini e ottenere il controllo completo della smart home di una persona. Telecamere di sicurezza incluse. Il tutto con uno stratagemma che, a conti fatti, risulta sorprendentemente semplice.
Sul versante del phishing, va detto che Gemini non implementa tecniche di phishing attivo, ma gli strumenti di intelligenza artificiale in generale rendono molto più facile per i truffatori creare messaggi, email e siti web falsi estremamente convincenti. Esiste poi il problema del pregiudizio algoritmico: Gemini apprende da enormi quantità di dati presenti online, che contengono inevitabilmente bias e stereotipi. Google lavora per correggere questo aspetto, ma nessun modello AI è completamente neutrale. A tutto questo si aggiunge una questione di trasparenza: Gemini non chiarisce da dove provengano le sue risposte, rendendo difficile capire se un’informazione si basi su ricerche accademiche, contenuti di blog o materiale obsoleto.
5 consigli pratici per proteggere i propri dati usando Gemini
Niente panico, comunque. Basta un po’ di buon senso per usare Gemini senza esporsi a rischi inutili. Primo: evitare di condividere password, dati finanziari, numeri di documenti, referti medici o qualsiasi dettaglio che non si affiderebbe a uno sconosciuto. Secondo: controllare le impostazioni della privacy di Google, accedendo alla sezione Dati e privacy dell’account e disattivando le Attività delle app Gemini, se si preferisce che le chat non vengano salvate o usate per l’addestramento. È anche possibile impostare un periodo di eliminazione automatica (3, 18 o 36 mesi).
Terzo consiglio: creare un account Google separato dedicato solo a Gemini, così da isolare le interazioni con l’AI dai dati personali e dai file di Drive. Quarto: chi usa Gemini per lavoro dovrebbe trattarlo come un fornitore esterno, rimuovendo nomi, indirizzi email e dettagli identificabili prima di condividere qualsiasi documento. Quinto e ultimo: verificare sempre le risposte importanti su fonti affidabili, perché l’AI può affermare qualcosa con grande sicurezza e avere comunque torto.
