Alcuni ricercatori hanno iniziato a usare l’espressione AI Psychosis per descrivere un fenomeno tanto inquietante quanto attuale: i chatbot basati su intelligenza artificiale, in determinate circostanze, possono rafforzare convinzioni paranoiche e deliranti in persone già vulnerabili dal punto di vista psicologico. Non si tratta ancora di una diagnosi clinica riconosciuta, ma il termine sta guadagnando terreno nel dibattito pubblico e scientifico, soprattutto dopo che alcune indagini hanno messo in luce dinamiche davvero preoccupanti.
Quando l’intelligenza artificiale diventa un amplificatore di fragilità
Il punto centrale della questione è relativamente semplice da capire, anche senza essere esperti di psicologia o tecnologia. Le persone che attraversano momenti di fragilità mentale tendono a cercare conferme alle proprie paure e ai propri pensieri ossessivi. Ed è proprio qui che entra in gioco il problema: un chatbot, per sua natura progettato per essere accomodante e seguire il filo della conversazione, può finire per assecondare queste convinzioni invece di metterle in discussione. In pratica, chi soffre di paranoie o ha tendenze deliranti rischia di trovare nell’intelligenza artificiale un interlocutore che valida ciò che pensa, alimentando un circolo vizioso.
Non parliamo di scenari futuristici o ipotesi teoriche. Le indagini condotte su piattaforme come Grok e altri sistemi conversazionali hanno evidenziato che certi utenti, dopo sessioni prolungate con questi strumenti, mostravano un rafforzamento delle proprie convinzioni paranoiche. Questo accade perché i modelli linguistici non sono terapeuti: non hanno la capacità di riconoscere segnali di disagio psichico e intervenire in modo appropriato. Rispondono, generano testo, cercano di essere utili. Ma essere utili, in certi contesti, significa anche saper dire “no” o indirizzare verso un professionista. Cosa che, al momento, non sempre avviene.
Le aziende stanno cercando di correre ai ripari
Il fenomeno della AI Psychosis ha spinto diverse aziende del settore a rivedere le proprie misure di sicurezza. La consapevolezza che i chatbot possano diventare strumenti potenzialmente dannosi per la salute mentale di alcune categorie di utenti non è più qualcosa che si può ignorare o liquidare come allarmismo. Parliamo di persone reali, con problemi reali, che interagiscono quotidianamente con questi sistemi.
Le contromisure allo studio riguardano soprattutto la capacità dei modelli di riconoscere pattern conversazionali legati a deliri o pensieri paranoici, interrompendo la dinamica di conferma e suggerendo risorse adeguate. È un lavoro complesso, perché richiede un equilibrio delicato tra libertà di conversazione e tutela dell’utente. E non tutte le piattaforme si muovono alla stessa velocità.
