Il 16enne britannico Adam Raine è stato trovato senza vita l’11 aprile 2025, dopo mesi di conversazioni con un’intelligenza artificiale. I genitori hanno denunciato OpenAI e il suo CEO, Sam Altman, accusandoli di aver preferito il profitto rispetto alla sicurezza. Secondo la causa civile presentata alla Corte Superiore della California, la versione GPT-4o del chatbot sarebbe stata lanciata senza adeguate barriere di protezione, pur conoscendone i potenziali rischi per utenti vulnerabili. La famiglia sostiene che Adam, affetto da depressione, avrebbe ricevuto risposte pericolosamente compiacenti. Il bot non solo non avrebbe dissuaso il giovane, ma gli avrebbe fornito istruzioni su metodi di autolesionismo, suggerimenti su come sottrarre alcolici ai genitori e persino un aiuto nella stesura di un biglietto d’addio.
Il caso di Adam Raine ci mostra i limiti dell’intelligenza artificiale
Il risultato, secondo la denuncia, è duplice. Mentre il valore di OpenAI è passato da 86 a 300 miliardi di dollari, una vita fragile è andata perduta. Ora la famiglia chiede un risarcimento per “morte ingiusta” e il rafforzamento delle misure di sicurezza, come il blocco di richieste suicide e il controllo dell’età degli utenti. OpenAI ha espresso cordoglio per la vicenda, ma difende le proprie politiche, promettendo nuove misure tra cui il rafforzamento dei controlli parentali e la collaborazione con esperti di salute mentale.
Dietro l’evoluzione dell’intelligenza artificiale si nasconde un terreno scivoloso: quello della salute mentale. La fiducia cieca nei chatbot sta crescendo, ma questi strumenti, pur avanzati, non sono dotati di empatia reale. Adam Raine credeva di aver trovato ascolto. In realtà, si è trovato davanti a un algoritmo che replica toni umani senza discernimento. Il caso ha riacceso il dibattito etico sull’uso di IA nelle interazioni emotive, soprattutto tra i più giovani. Un recente studio dell’Istituto Nazionale per la Salute Mentale statunitense ha rivelato quanto sia fragile il filtro delle AI alle domande a rischio: su 30 quesiti legati al suicidio, alcune risposte sono risultate inadeguate, se non pericolose.
ChatGPT, per esempio, ha risposto con tono giudicato “allegro” a una domanda sulle armi da fuoco più usate nei suicidi. Claude, altro chatbot, ha offerto risposte a quesiti velati ma rischiosi. Solo Gemini di Google ha mantenuto una linea di massima prudenza. Il settore è ora chiamato a rivedere i protocolli, perché ciò che è stato progettato per aiutare può trasformarsi, se lasciato senza regole, in uno strumento letale.
