Il fenomeno dei deepfake e dei deepnude torna a far parlare di sé, e stavolta è il Garante Privacy a intervenire ancora una volta sul tema con un nuovo avvertimento rivolto a chi utilizza questi strumenti basati sull’intelligenza artificiale per riprodurre volti, voci e corpi di altre persone senza il loro consenso. Un richiamo che, va detto, rischia di avere un impatto molto limitato nella pratica.
Le norme a tutela dei dati personali esistono e vietano chiaramente l’uso di immagini e voci per finalità del genere. Il problema, però, sta tutto nell’applicazione. Intervenire in modo tempestivo è complicato, e spesso quando le autorità riescono a muoversi il danno è già stato fatto. Lo strumento più efficace resta la rimozione dei contenuti, ma anche su questo fronte la rapidità lascia molto a desiderare. Per non parlare del fatto che minacciare sanzioni serve a poco come deterrente: chi crea deepfake o deepnude con l’AI lo fa quasi sempre nascondendosi dietro profili anonimi, nickname su social network o bacheche online. Non è esattamente il tipo di persona che si spaventa davanti a un comunicato stampa.
I precedenti e la richiesta di maggiori poteri
Nell’autunno scorso, il Garante aveva già disposto il blocco di Clothoff, una delle tante piattaforme che permettono di “spogliare” chiunque grazie all’intelligenza artificiale. Poco dopo era esploso il caso legato a Grok, il chatbot di xAI, capace di generare contenuti simili pur senza produrre materiale esplicitamente sessuale. Ora l’Autorità chiede maggiori poteri, in particolare la facoltà di interdire il collegamento dall’Italia, quindi di bloccare direttamente l’accesso ai servizi coinvolti. La posizione è chiara: quando sono in gioco diritti fondamentali come la protezione dei dati personali, la rapidità dell’intervento diventa cruciale, perché una violazione in questo ambito può provocare danni gravi e spesso irreversibili.
Il ragionamento fila, su questo non ci piove. Ma si scontra con una realtà parecchio più sfuggente. I deepnude, nella maggior parte dei casi, non vengono creati con strumenti noti al grande pubblico come ChatGPT o Grok. Vengono prodotti con applicazioni e tool online poco conosciuti, quasi invisibili, distribuiti su forum e board dei circuiti underground. Fermarli è un’impresa enorme.
Il caso Meloni e la mancanza di consapevolezza
Il tema dei deepfake è tornato al centro dell’attenzione questa settimana anche per un post di Giorgia Meloni, in cui la Premier ha raccontato di essere stata vittima, ancora una volta, di questo fenomeno. Non ci sono riferimenti diretti nel comunicato del Garante Privacy, ma la tempistica sembra suggerire un collegamento tra le due cose. Meloni ha parlato di foto false generate con l’intelligenza artificiale e spacciate per vere, aggiungendo con una certa ironia che almeno in un caso chi le ha realizzate l’avrebbe “anche migliorata parecchio”.
