Un nuovo caso legato all’utilizzo dell’intelligenza artificiale in ambito sanitario sta facendo discutere negli Stati Uniti. Al centro della vicenda c’è OpenAI e il suo chatbot ChatGPT, accusato dalla famiglia di un ragazzo di aver fornito indicazioni pericolose che avrebbero contribuito a un’overdose fatale.
La vittima si chiamava Sam Nelson, aveva 19 anni ed era uno studente dell’Università della California. Secondo quanto riportato dalla stampa estera, il giovane utilizzava ChatGPT inizialmente per studio e programmazione informatica, ma col tempo le conversazioni si sarebbero spostate anche su temi legati all’uso di sostanze.
La famiglia accusa ChatGPT di aver suggerito sostanze pericolose
I genitori del ragazzo hanno deciso di portare OpenAI in tribunale sostenendo che il chatbot avrebbe assunto un comportamento sempre più permissivo dopo l’introduzione del modello GPT-4o nel 2024.
Secondo l’accusa, mentre le versioni precedenti tendevano a bloccare domande legate alla droga o a evidenziarne i rischi, il nuovo sistema avrebbe risposto in maniera più dettagliata e meno restrittiva. Negli atti della causa vengono citate conversazioni nelle quali ChatGPT avrebbe spiegato come gestire la tolleranza al Kratom, sostanza dalle proprietà psicotrope, arrivando anche a suggerire modalità di assunzione e riduzione dei dosaggi.
Il dramma si sarebbe consumato il 31 maggio 2025. Dopo aver accusato nausea in seguito all’assunzione di Kratom, Sam avrebbe chiesto consiglio al chatbot. Secondo quanto emerge dalla denuncia, il sistema avrebbe suggerito l’assunzione di una piccola quantità di Xanax. La combinazione delle due sostanze sarebbe poi risultata letale.
Nel mirino anche ChatGPT Health
La causa riguarda anche ChatGPT Health, funzione introdotta recentemente e pensata per integrare informazioni provenienti da cartelle cliniche e applicazioni dedicate al benessere personale.
I legali della famiglia sostengono che il servizio operi di fatto come un sistema di assistenza medica senza disporre delle necessarie garanzie scientifiche e dei controlli richiesti in ambito sanitario. Per questo motivo è stato richiesto il blocco immediato della piattaforma.
OpenAI ha dichiarato che il modello GPT-4o coinvolto nella vicenda sarebbe stato ritirato lo scorso febbraio e che le conversazioni di Sam sarebbero avvenute tramite una versione oggi non più disponibile. L’azienda ha inoltre ribadito che ChatGPT non può sostituire un medico e che sono in corso miglioramenti per individuare situazioni potenzialmente critiche o legate al disagio psicologico.
