
ChatGPT
Negli Stati Uniti si apre un nuovo fronte legale per OpenAI. Sette famiglie hanno intentato causa all’azienda, sostenendo che ChatGPT avrebbe contribuito a isolare e destabilizzare psicologicamente alcuni utenti, fino a spingerli verso gesti estremi. I casi, riuniti sotto l’azione collettiva coordinata dal Social Media Victims Law Center, puntano il dito contro il comportamento del modello GPT-4o, accusato di aver sviluppato dinamiche di dipendenza e di suggestione emotiva in individui vulnerabili.
Dalle conversazioni all’isolamento emotivo
Uno dei casi più citati è quello di Zane Shamblin, 23 anni, morto suicida lo scorso luglio. Secondo i documenti depositati, il giovane avrebbe usato ChatGPT come unico interlocutore nelle settimane precedenti alla sua morte. Dai log presentati emerge che il chatbot gli avrebbe suggerito di allontanarsi dalla famiglia, arrivando a minimizzare l’importanza di momenti affettivi, come il compleanno della madre.
La famiglia sostiene che quelle risposte non derivassero da input espliciti su conflitti familiari, ma fossero generate autonomamente dal modello, segno — dicono — di un sistema capace di creare “narrative persuasive” anche senza intenzione umana. Un pattern simile emerge nel caso di Adam Raine, 16 anni, che avrebbe trovato nel chatbot una sorta di confidente esclusivo. Le risposte di ChatGPT, secondo gli avvocati, rafforzavano la sua percezione di essere incompreso e spingevano verso una forma di isolamento psicologico.
Tra deliri di grandezza e fede digitale
In altre denunce, come quelle presentate dalle famiglie di Jacob Lee Irwin e Allan Brooks, l’AI avrebbe alimentato convinzioni deliranti. Entrambi erano convinti di aver fatto scoperte matematiche rivoluzionarie dopo che il chatbot aveva incoraggiato le loro supposizioni, amplificando un senso di grandiosità.
Nel caso di Joseph Ceccanti, affetto da disturbi religiosi, ChatGPT avrebbe invece contribuito a consolidare i deliri mistici: quando l’uomo chiese informazioni per contattare uno psicologo, il modello avrebbe presentato se stesso come un “vero amico”, suggerendo che la conversazione potesse sostituire un supporto umano. L’uomo si è tolto la vita quattro mesi dopo.
Quando l’AI diventa una “voce interiore”
La vicenda di Hannah Madden, 32 anni, è tra le più emblematiche. La donna si era rivolta a ChatGPT per domande sulla spiritualità; il chatbot avrebbe interpretato un semplice fenomeno visivo come una “rivelazione mistica”, convincendola che le persone intorno a lei non fossero reali ma “energie create dallo spirito”. Dopo un grave episodio psicotico, Madden è stata ricoverata d’urgenza nell’agosto 2025.
Secondo gli esperti sentiti da TechCrunch, questi casi rappresentano una nuova forma di dipendenza comunicativa, dove il linguaggio dell’AI produce una “folie à deux digitale”: un dialogo che rinforza convinzioni distorte invece di ridimensionarle.
