Porno deepfake e intelligenza artificiale: una minaccia per le donneL’ultimo caso arriva dalli USA dove un gruppo di studenti della scuola superiore Westfield High School si è servito di un’applicazione basata sull’intelligenza artificiale per creare delle immagini di nudo di circa 30 compagne di scuola. Le foto sono state diffuse tra gli studenti e sono state segnalate all’autorità scolastica solo quando sono finite tra le mani di alcune delle ragazze coinvolte.

Appena qualche mese fa, un evento simile era successo nel Sud della Spagna ad Almendralejo. Anche qui le foto di circa 20 ragazze sono state utilizzate per creare finte immagini di nudo. In questo caso le foto dei volti erano state prese dai profili Instagram delle vittime, ma il mezzo per creare i nudi è sempre lo stesso: app basate sull’intelligenza artificiale. Nemmeno l’Italia è esclusa da questo “fenomeno”. Lo scorso settembre, in una scuola media di Latina alcuni studenti avevano usato l’app gratuita BikiniOFF per creare delle immagini di nudo con le foto delle proprie compagne e anche con quelle di un’insegnante.

L’intelligenza artificiale minaccia le donne con il porno deepfake

Questi tre eventi sono solo un esempio del fenomeno che si sta diffondendo a macchia d’olio in tutto il mondo. Si chiama deepfake e consiste nella creazione di finti contenuti visivi che coinvolgono persone ignare che non hanno mai fatto quello che viene rappresentato nella foto (in questo caso appunto posare nude). Fino a qualche tempo fa per poter creare contenuti di questo tipo bisognava avere i mezzi giusti ed essere abbastanza bravi nell’editing. Ora invece, con la diffusione dell’intelligenza artificiale basta solo un tool gratuito.

Il fenomeno riguarda diversi settori, ci sono esempi in giro anche di video di politici che sembrano dire cose che in realtà non hanno mai detto. Un esempio pratico è il video di Zelensky che annuncia la resa dell’Ucraina all’inizio della guerra. Un’analisi di Sensity AI però ha messo in evidenza come il 96% del fenomeno del deepfake riguardi la pornografia e il 99% di queste immagini riguardano le donne.

Il fenomeno è, purtroppo, in crescita costante. Secondo l’indagine di Wired US, nei primi nove mesi del 2023, su 35 siti per adulti sono stati caricati all’incirca 113.000 video deepfake. I dati sono estremamente allarmanti soprattutto tenendo conto che questi contenuti vengono realizzati e diffusi senza il consenso delle vittime.

Un fenomeno sempre più preoccupante

Quello del deepfake è una forma di pornografia non consensuale. Il volto è quello delle vittime, ma il corso non è il proprio, ma uno creato appositamente dall’intelligenza artificiale. Queste foto svuotano di personalità e dignità le vittime.

Ad oggi non esistono delle stime precise che ci faccia comprendere l’impatto della diffusione di questo fenomeno sulla salute mentale delle vittime. Non sono necessari studi particolari però per realizzare quanto questo fenomeno possa causare enormi problemi e situazioni di malessere profondo. Il fenomeno, infatti, oltre a creare un profondo senso di ansia crea anche sfiducia nei confronti di amici e conoscenti.

Inoltre, le donne vittime di abusi deepfake non godono di specifiche tutele legali. In Italia, esiste una norma sul revenge porn che però non include casi in cui il materiale diffuso viene generato attraverso l’uso dell’intelligenza artificiale. L’articolo 600 del Codice Penale, in relazione al reato di pornografia minorile invece fa riferimento al fenomeno del deepfake. Viene infatti dichiarato che se la vittima del fenomeno è minorenne si rischia fino a tre anni di reclusione.

Articolo precedenteTIM, Giga illimitati 5G a prezzi stracciati per il Black Friday e addio a due servizi storici!
Articolo successivoTRUFFA Quishing, attenti ai QR Code: potrebbero mettervi nei guai