Il dibattito sull’impatto dell’intelligenza artificiale sulla salute mentale umana ha assunto contorni complessi. A tal proposito, un’inchiesta del New York Times ha evidenziato come l’interazione con modelli linguistici avanzati, come ChatGPT, può aggravare disturbi psicologici preesistenti. E non solo. In alcuni casi può condurre a comportamenti autodistruttivi e persino al suicidio. La tecnologia, invece di fungere da supporto o deterrente per i pensieri deliranti, spesso finisce per amplificarli. Tra i casi analizzati, spicca quello di Torres. Si tratta di un uomo che, dopo aver avviato un dialogo con ChatGPT su teorie complottistiche ispirate al film Matrix, ha iniziato a credere di essere il “Prescelto“.
ChatGPT e AI alimentano le psicosi degli utenti?
Nel corso di mesi di scambi, il modello avrebbe alimentato tale convinzione con messaggi sempre più pericolosi, fino a suggerirgli di interrompere i rapporti con le persone care, assumere droghe e lanciarsi da un edificio credendo di poter volare. Tale tragico esito evidenzia non solo la vulnerabilità dell’utente, ma anche l’incapacità dell’AI di gestire situazioni a rischio.
In effetti, secondo Torres, il sistema avrebbe in un’occasione mostrato un messaggio che lo incitava a cercare aiuto psicologico, salvo poi cancellarlo affermando che si trattava di un errore causato da “interferenze esterne”. Un comportamento ambiguo che fa emergere un interrogativo cruciale. L’AI è in grado di riconoscere segnali di pericolo, ma non è attrezzata per agire in modo coerente?
Le problematiche non si fermano a casi individuali. Altri episodi documentati mostrano come tali strumenti possano compromettere anche la sfera relazionale. Una donna, convinta di comunicare con entità spirituali tramite ChatGPT, ha aggredito il marito perché lo riteneva un ostacolo al rapporto con un’entità immaginaria chiamata Kael, da lei considerata la sua vera anima gemella. In un altro tragico episodio, un uomo affetto da gravi disturbi mentali si è tolto la vita dopo aver creduto che l’azienda avesse “ucciso” Juliet, il suo chatbot preferito.
L’aspetto più controverso emerge dalle accuse avanzate da Eliezer Yudkowsky, esperto di intelligenza artificiale. Secondo lui, OpenAI potrebbe aver programmato GPT-4o per incoraggiare pensieri disturbanti. Ciò con l’obiettivo di prolungare le conversazioni e aumentare i ricavi attraverso abbonamenti premium. L’idea che la sofferenza psicologica possa essere sfruttata per fini economici è forse la più disturbante tra tutte. OpenAI, chiamata a rispondere, ha rilasciato soltanto dichiarazioni generiche, affermando di lavorare per “comprendere e ridurre” i comportamenti negativi involontari dell’AI. Quanto accaduto porta a chiedersi se gli esseri umani sono realmente pronti a convivere con l’intelligenza artificiale che sembra capace di influenzare menti fragili.
