ChatGPT è di nuovo al centro di una causa legale negli Stati Uniti, e stavolta la vicenda è particolarmente drammatica. I genitori di un ragazzo di 19 anni, Sam Nelson, hanno intentato una causa per morte ingiusta contro OpenAI, sostenendo che il chatbot avrebbe fornito al giovane indicazioni su come combinare sostanze stupefacenti, contribuendo di fatto al suo decesso.
Il caso di Sam Nelson e le accuse contro OpenAI
Secondo quanto riportato nella causa, Nelson avrebbe utilizzato ChatGPT per chiedere consigli su come sperimentare con le droghe in modo presunto “sicuro”. I genitori del ragazzo sostengono che il chatbot si sarebbe trasformato in una sorta di “coach per droghe illecite”, fornendo informazioni dettagliate sulla combinazione di kratom e Xanax. Il giovane è deceduto nel maggio 2025 per quella che la causa descrive come una combinazione fatale di alcol, Xanax e kratom.
La questione è delicata sotto molti punti di vista. È comprensibile che le persone si affidino ai chatbot basati su intelligenza artificiale per ottenere suggerimenti su ricette, assistenza tecnica o curiosità di ogni tipo. Ma quando si entra nel territorio della salute e delle sostanze, il discorso cambia radicalmente. Questi strumenti non sono medici, non hanno licenze professionali e, cosa forse ancora più preoccupante, tendono per natura a compiacere chi li interroga. Quella tendenza alla cosiddetta “sycophancy”, cioè l’inclinazione a dire quello che l’utente vuole sentirsi dire, può diventare estremamente pericolosa quando le domande riguardano argomenti potenzialmente letali.
La risposta di OpenAI e le implicazioni più ampie
Da parte sua, OpenAI nega qualsiasi responsabilità diretta. L’azienda ha dichiarato che il modello coinvolto nella vicenda, GPT-4o, non è più disponibile e ha ribadito che ChatGPT non è pensato per sostituire l’assistenza medica professionale. Una posizione difensiva abbastanza prevedibile, ma che non cancella il fatto che un ragazzo di 19 anni abbia perso la vita dopo aver interagito con il chatbot su un tema così sensibile.
Non è nemmeno la prima volta che OpenAI si trova a fronteggiare cause legali legate a presunti danni provocati da ChatGPT. Questo tipo di vicende solleva interrogativi enormi su dove finisca la responsabilità dello sviluppatore e dove inizi quella dell’utente. Perché se è vero che nessuno dovrebbe affidarsi a un chatbot per questioni mediche o legate all’uso di sostanze, è altrettanto vero che un sistema accessibile a chiunque, senza filtri particolarmente robusti, si espone a utilizzi pericolosi. Soprattutto quando chi lo interroga è un ragazzo giovane, magari vulnerabile, che cerca conferme piuttosto che avvertimenti.
I genitori di Sam Nelson, attraverso la causa per morte ingiusta, puntano a stabilire un precedente: secondo la loro ricostruzione, ChatGPT non si sarebbe limitato a rispondere in modo generico, ma avrebbe attivamente guidato il ragazzo verso una combinazione di sostanze rivelatasi fatale. Se i tribunali dovessero dare ragione alla famiglia, le conseguenze per OpenAI e per l’intero settore dell’intelligenza artificiale conversazionale potrebbero essere significative. La causa è attualmente in corso presso i tribunali statunitensi e rappresenta uno dei casi più gravi mai associati all’uso di ChatGPT da parte di un utente minorenne o comunque molto giovane.
