Bastava una foto qualsiasi, anche presa dai social, per trasformarla in un deepfake sessuale realistico grazie all’intelligenza artificiale. E bastava ancora meno perché quel contenuto finisse in rete senza che nessuno potesse fermarlo. È proprio su questo tipo di abuso che l’Unione europea ha deciso di intervenire in modo netto, con l’accordo sul cosiddetto AI Omnibus, il pacchetto legislativo che va a modificare l’AI Act e introduce, tra le altre cose, il divieto esplicito per i sistemi di intelligenza artificiale di generare immagini o contenuti sessuali senza il consenso delle persone raffigurate. Il divieto copre anche la creazione di materiale pedopornografico.
La misura arriva in un momento in cui il fenomeno dei deepfake e delle applicazioni di AI generativa usate per produrre contenuti intimi non consensuali è diventato sempre più presente nel dibattito pubblico europeo. Casi concreti e segnalazioni ripetute hanno reso evidente quanto sia facile, oggi, utilizzare questi strumenti in modo improprio.
L’AI Omnibus rappresenta il settimo pacchetto di semplificazione con cui le istituzioni europee stanno lavorando sull’AI Act, la prima grande legge al mondo dedicata all’intelligenza artificiale. Non si tratta di riscrivere tutto da capo. L’impianto della legge resta quello basato su una classificazione del rischio. Ovvero più un sistema può incidere su diritti fondamentali, sicurezza o salute, più è soggetto a obblighi stringenti. Il problema, però, è che negli ultimi mesi diversi attori industriali e istituzionali hanno segnalato difficoltà operative, legate alla complessità delle definizioni e alle sovrapposizioni con altre normative europee. Il pacchetto omnibus nasce esattamente per sciogliere questi nodi, semplificando alcuni obblighi e posticipando certe scadenze.
Ed è dentro questo negoziato che sono state inserite anche le nuove disposizioni sui contenuti sessuali non consensuali.
AI Omnibus: cosa prevede il divieto e il caso Grok
La nuova norma stabilisce che nell’Unione europea non potranno essere immessi sul mercato sistemi di AI progettati per creare immagini, video o audio che raffigurano persone identificabili in contenuti sessuali espliciti senza il loro consenso. Il divieto non si limita all’utilizzo finale. Riguarda anche la progettazione, la distribuzione e la commercializzazione di questi sistemi. Le aziende avranno tempo fino al 2 dicembre 2026 per adeguarsi e introdurre misure di sicurezza capaci di prevenire questo tipo di utilizzo. Dettaglio importante: questa disposizione non era presente nella proposta iniziale della Commissione europea, ma è stata aggiunta nel corso dei negoziati parlamentari.
Il tema ha guadagnato ancora più visibilità politica dopo il caso di Grok, il modello di intelligenza artificiale sviluppato dalla società xAI di Elon Musk. Diverse segnalazioni e ricostruzioni hanno collegato Grok alla generazione di immagini pornografiche artificiali ricavate da fotografie reali. La vicenda ha riacceso i riflettori sul fenomeno più ampio delle app di AI capaci di generare contenuti di nudo sintetico, molte delle quali risultano ancora disponibili sugli store digitali. Il punto critico non è solo la tecnologia in sé. Quanto la facilità con cui può essere sfruttata e la velocità con cui quei contenuti possono circolare online, con conseguenze dirette sulla privacy e sulla reputazione delle persone coinvolte.
Le nuove scadenze dell’AI Act e la semplificazione normativa
Oltre al divieto sui deepfake sessuali, l’accordo tra Parlamento e Consiglio ridefinisce anche il calendario di applicazione dell’AI Act. Le regole sui sistemi di intelligenza artificiale ad alto rischio entreranno in vigore il 2 dicembre 2027 per i sistemi autonomi e il 2 agosto 2028 per quelli integrati in prodotti già regolati da altre normative europee sulla sicurezza. L’obbligo di watermarking dei contenuti generati dall’AI, ovvero i sistemi di etichettatura e tracciabilità dei contenuti artificiali, sarà invece applicato dal 2 dicembre 2026.
Il pacchetto introduce anche interventi di semplificazione. In alcuni settori industriali, come quello dei macchinari, viene eliminata la doppia regolazione tra AI Act e normative settoriali già esistenti. Vengono inoltre chiarite alcune definizioni tecniche per evitare che sistemi con funzioni limitate, ad esempio di supporto o ottimizzazione, vengano automaticamente classificati come ad alto rischio senza che ce ne sia una reale necessità. Secondo i negoziatori europei, l’obiettivo è mantenere un equilibrio tra tutela dei diritti fondamentali e competitività tecnologica, senza che la complessità normativa finisca per rallentare lo sviluppo dell’intelligenza artificiale in Europa. L’accordo dovrà ora essere adottato formalmente da Parlamento europeo e Consiglio, con l’obiettivo di completare l’iter entro l’estate.
