La tutela dell’identità personale contro i contenuti manipolati dall’intelligenza artificiale è al centro di una nuova proposta di legge che sta facendo discutere. Il testo punta a introdurre nel nostro ordinamento un concetto piuttosto netto: il diritto esclusivo su volto, voce e immagine di ogni persona, con l’obiettivo di arginare un fenomeno che negli ultimi anni è esploso in modo preoccupante. Deepfake, clonazione vocale, video generati da algoritmi capaci di replicare le sembianze di chiunque. Non si parla più di fantascienza, ma di cronaca quotidiana.
Il punto centrale della proposta è semplice da capire, anche se le sue implicazioni giuridiche sono tutt’altro che banali. Oggi, in Italia, esistono già strumenti normativi per proteggere la propria immagine e la propria reputazione. Il problema è che queste norme sono state pensate in un’epoca in cui nessuno immaginava che un software potesse ricreare la voce di una persona in pochi secondi, o sovrapporre il suo volto a un corpo estraneo in un video dall’aspetto credibilissimo. La tecnologia ha corso molto più veloce del diritto, e adesso tocca al legislatore provare a colmare questo divario.
Cosa prevede nel concreto la proposta e perché è diversa da quanto già esiste
La novità più significativa riguarda l’introduzione di un diritto esclusivo esplicito. Non una semplice estensione delle tutele già previste dal codice civile o dalla normativa sulla privacy, ma un riconoscimento autonomo. Ogni persona avrebbe il controllo pieno e diretto sull’uso della propria identità visiva e sonora, con la possibilità di agire legalmente in modo più rapido ed efficace contro chi utilizza contenuti manipolati senza consenso.
Secondo l’analisi di esperti del settore, questa impostazione potrebbe rappresentare un passo avanti significativo rispetto al quadro attuale. Finora, chi si trovava vittima di un deepfake doveva spesso affidarsi a interpretazioni giurisprudenziali non sempre uniformi, con tempi lunghi e risultati incerti. La proposta di legge cerca di dare una cornice più solida, definendo in modo chiaro cosa si intende per manipolazione dell’identità personale tramite intelligenza artificiale e quali sono le conseguenze per chi la pratica.
Il nodo dell’intelligenza artificiale generativa e i rischi concreti per i cittadini
C’è poi un aspetto che merita attenzione particolare. L’intelligenza artificiale generativa non viene usata solo per colpire personaggi pubblici o figure note. Sempre più spesso le vittime sono persone comuni, coinvolte in truffe, ricatti o campagne di disinformazione costruite con materiale sintetico. Il fenomeno riguarda anche i minori, e questo rende la questione ancora più urgente.
La proposta si inserisce in un contesto europeo che sta già muovendosi nella stessa direzione, a partire dall’AI Act approvato dall’Unione Europea, che impone obblighi di trasparenza sui contenuti generati artificialmente. Il testo italiano, però, prova ad andare oltre, concentrandosi specificamente sulla dimensione individuale della tutela. Non solo regole per le piattaforme e per chi sviluppa i modelli di intelligenza artificiale, ma strumenti concreti nelle mani dei singoli cittadini.
