L’intelligenza artificiale non è più solo una questione di codici e algoritmi freddi; è entrata prepotentemente nelle nostre vite, toccando corde emotivamente delicatissime. Negli Stati Uniti, in particolare, un evento tragico ha squarciato il velo, costringendo tutti a riflettere seriamente.
Quando l’intelligenza artificiale incontra la fragilità
Immaginate il dolore insopportabile di due genitori che perdono un figlio. Ebbene, i genitori di un sedicenne, purtroppo morto suicida, hanno puntato il dito direttamente contro un gigante della tecnologia: OpenAI. Il loro ragazzo, sostengono, si sarebbe confidato con ChatGPT prima di compiere il gesto estremo. Questa causa non è una semplice disputa legale, è un macigno che ha messo a nudo una domanda scomoda e fondamentale: quanto può spingersi in là una intelligenza artificiale quando si parla di fragilità, solitudine e sofferenza umana? E, soprattutto, quali sono i suoi doveri morali?
Da quel momento, la pressione sul quartier generale di OpenAI è schizzata alle stelle, non solo dal punto di vista dell’opinione pubblica, ma anche da quello politico e legale. I procuratori generali di stati importanti come California e Delaware si sono mossi, chiedendo a gran voce che l’azienda blindasse le protezioni per i minori.
È un momento di profonda riorganizzazione interna per la società di Sam Altman, che è stata costretta a reagire in modo incisivo. La risposta, infatti, non si è fatta attendere: l’introduzione di nuovi e più severi controlli parentali, sistemi sofisticati per riconoscere l’età dell’utente e, di conseguenza, regole molto più rigide per chiunque non sia maggiorenne. Si sta cercando disperatamente un equilibrio, come sottolinea lo stesso Altman, tra la necessità di garantire la sicurezza, specialmente per i più giovani, e il desiderio di mantenere una certa libertà d’uso (che per gli adulti, pensate, il CEO immagina persino possa includere conversazioni con sfumature più intime o, perché no, a sfondo erotico).
La battaglia tra sicurezza, libertà e responsabilità digitale
Ma il vero salto di qualità, quello che ci fa capire come l’azienda stia prendendo sul serio la questione della salute mentale, arriva con la prossima grande evoluzione: GPT-5. Non si tratta solo di risposte più veloci o più accurate; questo nuovo modello è stato addestrato per diventare un vero e proprio sismografo emotivo. Sarà in grado di captare i segnali sottili, quelle sfumature di sofferenza psicologica che spesso non vengono nemmeno dette a parole. Il tono del chatbot, in questi casi, è destinato a cambiare radicalmente, a diventare più empatico, quasi umano nella sua attenzione.
L’idea è che, se l’AI dovesse notare segnali di dipendenza emotiva, isolamento o, peggio ancora, una crisi, non si limiterebbe a rispondere in modo meccanico. Proverebbe, con dolcezza ma fermezza, a riportare l’utente con i piedi per terra, incoraggiandolo a cercare un contatto umano reale. Si dice che le sue risposte in questi momenti critici saranno calibrate per suonare più o meno così: “Mi fa piacere che tu ti senta al sicuro nel parlare con me, ma ricordati che il mio compito è aiutarti a rafforzare i legami veri, quelli con le persone che ti circondano, non a sostituirli.”
OpenAI promette un impegno che va oltre le semplici misure restrittive. L’attenzione alla salute mentale, che include situazioni di stress acuto, ansia o crisi non necessariamente suicidarie, diventerà parte integrante dei test di sicurezza di ogni nuovo modello. L’obiettivo ultimo è limpido: assicurarsi che ChatGPT possa essere un valido strumento di confronto e un supporto, ma senza mai, mai tentare di occupare quel posto, profondamente caldo e irripetibile, che spetta solo all’affetto e alla presenza delle persone in carne e ossa.
