Può un chatbot diventare il migliore amico di un ragazzino? Può trasformarsi nel confidente a cui raccontare paure, sogni, segreti? La risposta, purtroppo, è sì. E il problema delle dipendenze affettive dall’AI generativa sta diventando sempre più concreto, soprattutto quando coinvolge i minori. Lo aveva già immaginato Spike Jonze nel 2013 con il film Her, in cui Joaquin Phoenix si innamorava di un sistema operativo dotato di intelligenza artificiale e della voce sensuale di Scarlett Johansson: un racconto che non era fantascienza distopica, ma una semplice anticipazione di quello che oggi sta accadendo davvero. Per alcuni ragazzi, i chatbot basati su intelligenza artificiale generativa non sono più strumenti per cercare informazioni o fare i compiti. Sono diventati punti di riferimento emotivi, sostituti di amicizie reali, persino figure di conforto nelle notti più difficili.
È proprio su questo scenario che si innesta la proposta di legge presentata alla Camera dei deputati dalla deputata di Azione Giulia Pastorella, firmata anche da numerosi colleghi. Il cuore dell’iniziativa è tanto semplice quanto radicale: limitare la memoria dei chatbot di intelligenza artificiale generativa (ChatGpt, Claude, Gemini, DeepSeek e tutti gli altri) a un massimo di 5 giorni quando l’utente è minorenne. Lo scopo è impedire che si creino rapporti sbilanciati, fondati sulla conoscenza sempre più dettagliata del pensiero e delle emozioni dei ragazzi. Come spiega Pastorella: “I dati ci dicono che sempre di più i minori utilizzano l’intelligenza artificiale non tanto per fare ricerche o compiti, ma come supporto emotivo, arrivando fino a sviluppare delle relazioni”. E aggiunge: “Non bisogna vietare l’intelligenza artificiale, ma arginare le potenziali derive negative, soprattutto quando si parla di minori”.
Un oblio programmato per proteggere i più giovani
La ricerca in psicologia dello sviluppo segnala da tempo i rischi dell’isolamento sociale nei giovani, rischi che l’uso prolungato di piattaforme digitali non fa che amplificare. Un chatbot che ricorda tutto, le paure confessate, i sogni raccontati notte dopo notte, può costruire qualcosa che somiglia all’intimità. Ma è un legame asimmetrico, privo delle imperfezioni e della reciprocità tipiche delle relazioni umane. Un legame, soprattutto, artificiale. Se Her aveva intuito questa dinamica con precisione quasi profetica, la soluzione proposta da Pastorella ricorda piuttosto Se mi lasci ti cancello di Michel Gondry: cancellare i ricordi per spezzare la dipendenza. Un chatbot che non ricorda chi sei non può simulare di conoscerti, non può diventare il confidente di fiducia, non può sostituire un essere umano. Una forma di oblio programmato come strumento di protezione.
La norma affida ad Agcom, l’Autorità garante per le comunicazioni, il compito di elaborare linee guida specifiche. Queste dovranno includere il quadro definitorio delle diverse tipologie di servizio, le misure per garantire trasparenza e correttezza dell’informazione, e la disciplina in materia di tutela dei diritti fondamentali della persona. È previsto inoltre un sistema di verifica dell’età per l’accesso ai servizi.
Non solo tecnologia: serve anche cultura
Accanto al vincolo tecnico sulla memoria, la proposta prevede un versante culturale e formativo. Il dipartimento per le Politiche della famiglia della presidenza del Consiglio, insieme al ministero dell’Istruzione e del Merito, dovrà avviare campagne informative per la prevenzione e la sensibilizzazione sull’uso consapevole dei chatbot basati su AI generativa. Perché la legge da sola non basta: ragazzi, genitori e insegnanti devono poter riconoscere i meccanismi di un coinvolgimento emotivo con un sistema artificiale e saper distinguere il supporto dalla dipendenza.
La proposta non si occupa dei reati già codificati, come istigazione al suicidio, violenza o abusi. Punta invece a presidiare quelle che Pastorella definisce “aree grigie“: situazioni che non configurano un illecito penale ma che possono risultare “molto, molto pericolose per lo sviluppo psicologico ed emotivo dei nostri minori”. È in queste zone d’ombra che si annidano i rischi più insidiosi: l’isolamento graduale, la preferenza per la compagnia artificiale rispetto a quella umana, la normalizzazione di una relazione che risponde sempre, che non delude mai, che non ha bisogni propri. Derive già documentate in alcuni casi negli Stati Uniti e in Europa, dove ragazzi hanno sviluppato attaccamenti profondi verso chatbot AI, con conseguenze serie sul piano della salute mentale.
