Negli ultimi giorni è emerso un accaduto che ha sollevato preoccupazioni sul fronte della privacy online. Migliaia di conversazioni con chatbot come ChatGPT e Grok, ritenute private dagli utenti, sono comparse nei risultati dei motori di ricerca. Una situazione che mette in luce un problema spesso sottovalutato: non tutto ciò che scriviamo in una chat AI rimane davvero “tra noi e il bot”.
In che modo le chat con ChatGPT, Grok e altre AI possono finire online
Inizialmente, alcune piattaforme di intelligenza artificiale offrivano la possibilità di condividere una conversazione tramite link. In diversi casi, questi link sono stati indicizzati e resi visibili nelle ricerche online, con il risultato che migliaia di dialoghi sono rimasti liberamente consultabili. Anche se la funzione è stata rimossa, molti contenuti continuano a circolare in cache e archivi web, difficili da eliminare del tutto. Il problema non riguarda solo dati tecnici o generici. Tra i contenuti visibili ci sono conversazioni con informazioni personali, idee di lavoro, progetti in corso e persino testi accademici. Quanto successo mette a rischio chi li ha condivisi.
Cosa accade alle tue conversazioni con i bot
Le piattaforme dichiarano di non vendere i dati a terzi, ma ammettono di memorizzare temporaneamente le conversazioni per migliorare il servizio, risolvere problemi tecnici e prevenire abusi. In alcuni casi, operatori umani autorizzati possono leggere frammenti delle chat, ad esempio per indagare su segnalazioni di uso improprio. Un aspetto poco noto è che le conversazioni con questi sistemi non godono di protezioni legali. Sebbene vengano trattate con riservatezza interna, non sono equiparabili alla confidenzialità di un avvocato o di un terapeuta. Su Grok, ad esempio, la gestione dei dati appare davvero poco trasparente. Anche in “modalità privata”, le chat restano archiviate per un certo periodo e la politica sulla privacy lascia intendere che vengano raccolte informazioni personali dettagliate, inclusi dati di contatto e attività online, con la possibilità che vengano condivisi con terzi.
Come proteggersi
Per ridurre i rischi, è fondamentale evitare di inserire nelle chat dati sensibili o identificativi. Disattivare le opzioni di condivisione e verificare le impostazioni di privacy può fare la differenza. Inoltre, conviene considerare ogni conversazione con un’IA come potenzialmente recuperabile. D’altronde, la prudenza è il primo scudo contro l’esposizione indesiderata.
