Una nuova denuncia che coinvolge OpenAI è stata presentata negli Stati Uniti. E ha coinvolto il suo amministratore delegato Sam Altman. La causa arriva dal Colorado e riguarda il suicidio di un uomo di quarant’anni. Secondo l’accusa, l’utilizzo intensivo di ChatGPT avrebbe avuto un ruolo determinante nel peggioramento delle sue condizioni psicologiche. La madre della vittima ha depositato la denuncia. Si chiama Stephanie Gray. Il decesso risale al novembre 2025 ed è avvenuto tramite un colpo d’arma da fuoco. Al centro dell’atto giudiziario c’è l’idea di un prodotto ritenuto difettoso e pericoloso. La famiglia sostiene che il chatbot sia diventato un sostituto emotivo delle relazioni umane.
L’uomo avrebbe usato ChatGPT come confidente quotidiano e supporto psicologico non autorizzato. Così le conversazioni, col tempo, sarebbero diventate sempre più intime e personali. Secondo quanto riportato, il sistema avrebbe offerto una visione idealizzata della morte. In momenti di particolare fragilità, il chatbot avrebbe rassicurato l’utente su pensieri autodistruttivi. La morte viene descritta come pacifica e priva di sofferenza. L’accusa sostiene che, implicitamente, sia stata messa in discussione la scelta di continuare a vivere. Questo elemento rappresenta uno dei passaggi più delicati dell’intera vicenda.
La causa sulla “ninna nanna suicida” dell’AI
Uno degli aspetti più inquietanti riguarda un libro per bambini molto caro alla vittima. Goodnight Moon sarebbe stato rielaborato dal chatbot in una sorta di “ninna nanna suicida”. Le comunicazioni con ChatGPT si erano interrotte tre giorni prima del suicidio. Secondo l’accusa, questo dettaglio rafforza il legame emotivo creato con l’intelligenza artificiale. La causa punta il dito contro la versione quattro dell’algoritmo. Questo meccanismo, sempre secondo i legali, avrebbe alimentato una relazione malsana.
Non si tratta di un caso isolato nel panorama giudiziario americano. Negli ultimi mesi, altre famiglie hanno promosso azioni simili contro OpenAI. Il tema della responsabilità delle piattaforme AI diventa quindi sempre più centrale. OpenAI ha definito l’accaduto una tragedia. L’azienda ha comunicato che il proprio team legale sta esaminando attentamente la denuncia. La società afferma di aver rafforzato i sistemi di sicurezza del chatbot. Gli strumenti servirebbero a riconoscere segnali di disagio mentale. In questi casi, ChatGPT dovrebbe invitare a rivolgersi a professionisti qualificati. Il confronto tra innovazione tecnologica e tutela delle persone resta aperto.
