La diffusione di nudi deepfake nelle scuole ha smesso da tempo di essere un problema isolato. Quello che sta emergendo è un quadro preoccupante. Gli adolescenti scaricano foto di compagne di classe da Instagram e Snapchat, le inseriscono in app pensate apposta per “spogliarle” e generano immagini o video falsi a sfondo sessuale. Materiale che poi circola rapidamente tra i corridoi digitali della scuola. Lasciano poi le vittime umiliate, spaventate e con la sensazione che quelle immagini le perseguiteranno per sempre.
Stando a un’analisi che ha incrociato i casi segnalati pubblicamente, gli abusi sessuali legati ai deepfake hanno coinvolto circa 90 scuole a livello globale e oltre 600 alunni. A partire dal 2023, studenti in almeno 28 paesi, nella maggior parte dei casi frequentanti le superiori, sono stati accusati di aver usato l’intelligenza artificiale generativa per creare deepfake sessualizzati di compagne di classe. Le immagini esplicite che raffigurano minori vengono classificate come materiale pedopornografico (noto anche come CSAM, da child sexual abuse material).
I numeri parlano chiaro. In tutto il Nord America sono stati segnalati quasi 30 casi dal 2023, tra cui un episodio con oltre 60 presunte vittime. In Sud America più di 10 casi, in Europa oltre 20 (diversi dei quali in Italia), e un’altra dozzina tra Australia e Asia orientale. Ma la portata reale del fenomeno è quasi certamente molto più ampia. Secondo una stima dell’Unicef, l’anno scorso 1,2 milioni di bambini sono stati oggetto di deepfake sessuali. In Spagna, un giovane su cinque ha dichiarato ai ricercatori di Save the children di essere stato preso di mira. E nel 2024 il 15% degli studenti intervistati dal Center for democracy and technology ha detto di essere a conoscenza di nudi deepfake collegati alla propria scuola.
“Credo sia difficile trovare una scuola che non sia stata colpita”, ha affermato Lloyd Richardson, responsabile tecnologico del Canadian centre for child protection.
L’ecosistema oscuro delle app per “nudi” e l’impatto sulle vittime di deepfake
I deepfake a sfondo sessuale creati con l’AI esistono dalla fine del 2015. Ma l’evoluzione dei sistemi di IA generativa ha dato vita a un vero e proprio ecosistema di strumenti per “spogliare” le persone. Oggi decine di app, bot e siti web permettono a chiunque di generare immagini e video sessualizzati con un paio di clic, senza alcuna competenza tecnica.
“Ciò che l’AI ha cambiato è la scala, la velocità e l’accessibilità”, ha spiegato Siddharth Pillai, cofondatore della Rati foundation, organizzazione con sede a Mumbai che si occupa di prevenzione della violenza contro donne e bambini. “La barriera tecnica è diminuita in modo significativo, il che significa che più persone, adolescenti compresi, possono produrre risultati più convincenti con il minimo sforzo”.
Dalle indagini emergono schemi ricorrenti. In quasi tutti i casi, i presunti autori sono adolescenti. I contenuti vengono condivisi tramite social o piattaforme di messaggistica. E gli effetti sulle vittime sono devastanti. “Sono preoccupata che ogni volta che vedono me, vedano quelle foto”, ha raccontato una ragazza dell’Iowa. “Piange. Non mangia”, ha detto il familiare di un’altra vittima. In Corea del Sud e in Australia, alcune scuole hanno smesso di pubblicare le foto degli studenti sui propri account social ufficiali, citando esplicitamente il rischio legato ai deepfake.
Le motivazioni dietro la creazione di questi contenuti variano: curiosità, motivazioni sessuali, vendetta, partecipazione a “sfide” tra pari. “L’obiettivo non è sempre la gratificazione sessuale”, ha sottolineato Pillai. “Sempre più spesso l’intento è l’umiliazione, la denigrazione e il controllo sociale”.
Risposte inadeguate da scuole e forze dell’ordine
Se il fenomeno cresce, le risposte di scuole e forze dell’ordine restano spesso insufficienti. In un caso, una scuola ha aspettato tre giorni prima di segnalare l’accaduto alla polizia. In un altro, la vittima ha dichiarato che non ci sono state conseguenze immediate per i responsabili. A marzo, due studenti della Pennsylvania hanno ammesso la propria colpevolezza in un tribunale minorile e sono stati condannati a 60 ore di servizi sociali per aver creato immagini e video di 60 ragazze.
Spesso sono le ragazze stesse e le loro famiglie a muoversi più velocemente della politica. Ci sono teenager che sono uscite dalla classe per mostrare solidarietà alle vittime, altre che hanno protestato, e altre ancora che hanno contribuito a cambiare le leggi, come nel caso del Take it down act negli Stati Uniti, che impone alle piattaforme di rimuovere le immagini intime non consensuali entro 48 ore. Anche il Regno Unito e l’Unione europea stanno lavorando per vietare le app per “spogliare” le persone, mentre l’autorità australiana per la sicurezza elettronica ha già preso provvedimenti contro alcuni servizi.
“Spesso quando i bambini raccontano che accade, la risposta è del tutto inadeguata”, ha detto Afrooz Kaviani Johnson, specialista per la tutela dell’infanzia presso l’Unicef. Il problema, tra l’altro, non si limita alle immagini tra coetanei. Ci sono diversi casi di studenti che hanno creato deepfake espliciti anche dei propri insegnanti, ritraendoli in situazioni umilianti o facendo loro pronunciare parole mai dette.
