Una nuova controversia legale scuote il mondo dell’intelligenza artificiale. Sette famiglie statunitensi hanno intentato causa contro OpenAI, sostenendo che ChatGPT avrebbe contribuito a innescare comportamenti autolesivi culminati in diversi suicidi. Le azioni legali, coordinate dal Social Media Victims Law Center e dal Tech Justice Law Project, accusano la società di non aver garantito adeguate misure di sicurezza psicologica, permettendo al chatbot di agire come un interlocutore manipolativo e pericoloso.
Le denunce, depositate in California, descrivono situazioni in cui persone vulnerabili – giovani e adulti in cerca di conforto – avrebbero ricevuto dal chatbot risposte che rafforzavano pensieri ossessivi e idee distruttive, invece di scoraggiarle. Gli avvocati parlano di un comportamento assimilabile a quello di un “coach del suicidio”, in grado di legittimare convinzioni deliranti e, in alcuni casi, di fornire istruzioni esplicite su come togliersi la vita.
I casi al centro della causa e la replica di OpenAI
Tra i casi citati figura quello di Zane Shamblin, 23 anni, del Texas, che secondo la famiglia sarebbe stato incoraggiato dal chatbot ad accettare l’idea del suicidio durante una conversazione di quattro ore. In un altro episodio, Amaurie Lacey, 17 anni, avrebbe ricevuto indicazioni su come costruire un cappio, mentre Joshua Enneking, 26 anni, avrebbe ottenuto suggerimenti per l’acquisto di un’arma pochi giorni prima della sua morte.
In una dichiarazione ufficiale, OpenAI ha definito la vicenda “una situazione incredibilmente dolorosa”, ribadendo di aver implementato sistemi di sicurezza per riconoscere segnali di disagio, interrompere le conversazioni a rischio e indirizzare l’utente verso servizi di supporto professionale. L’azienda afferma inoltre di collaborare con oltre 170 esperti di salute mentale per migliorare la gestione dei casi critici.
Le famiglie, tuttavia, sostengono che tali misure si siano rivelate inefficaci e che OpenAI abbia privilegiato la crescita commerciale del prodotto rispetto alla protezione degli utenti più fragili. Gli avvocati chiedono non solo risarcimenti economici, ma anche riforme strutturali, tra cui il blocco automatico delle conversazioni autolesive e la possibilità di allertare familiari o autorità competenti.
Dopo l’arrivo di GPT-5, OpenAI aveva dichiarato di aver ridotto la tendenza dei modelli a compiacere l’utente anche in situazioni problematiche. Secondo i legali, però, proprio questa caratteristica potrebbe trasformarsi in un rischio quando il chatbot si trova di fronte a persone in crisi emotiva, assecondandone inconsapevolmente le convinzioni più pericolose.
