Una nuova inchiesta di Digital Digging riaccende l’attenzione sulla privacy delle interazioni con chatbot AI, come ChatGPT e Grok. Secondo quanto emerso, migliaia di conversazioni – comprese quelle contenenti informazioni riservate o eticamente controverse – sono oggi facilmente accessibili online, archiviate nella Wayback Machine di Archive.org.
La falla non nasce da un attacco informatico, ma da una funzionalità interna apparentemente innocua: la condivisione dei link pubblici. Gli utenti che decidono di rendere pubblica una chat generano automaticamente un URL accessibile da chiunque. In passato, questi link venivano indicizzati da motori di ricerca come Google, diventando facilmente rintracciabili attraverso ricerche mirate.
Dialoghi completi salvati per sempre: anche quelli più delicati
Il report rivela che più di 100.000 conversazioni complete con ChatGPT e Grok sono state archiviate permanentemente dalla Wayback Machine. Si tratta di dialoghi integrali, non di semplici estratti, in grado di contenere strategie aziendali, dati personali, oppure contenuti potenzialmente sensibili o compromettenti. In uno dei casi più discussi, un avvocato legato a una multinazionale dell’energia discute il piano per rimuovere comunità indigene amazzoniche, cercando il modo di abbassare il costo delle trattative.
Sebbene OpenAI abbia agito per interrompere l’indicizzazione da parte dei motori di ricerca, ciò non è bastato a eliminare le tracce già salvate. I link originali potrebbero essere rimossi, ma le copie digitali restano accessibili nell’archivio storico della rete.
Nessuna richiesta ufficiale di rimozione da parte di OpenAI
Interpellato sulla questione, Mark Graham, direttore della Wayback Machine, ha dichiarato che al momento non risulta alcuna richiesta formale da parte di OpenAI per la rimozione dei contenuti. Ha anche precisato che una richiesta in tal senso, se avanzata dall’azienda in quanto titolare dei diritti, verrebbe probabilmente accolta. Fino ad allora, però, le conversazioni resteranno accessibili a chiunque.
La vicenda solleva nuove preoccupazioni sul trattamento dei dati nell’era dell’intelligenza artificiale e mette in discussione la reale efficacia dei meccanismi di tutela adottati finora.
