La tutela dei diritti nell’era dell’intelligenza artificiale sta attraversando una fase delicatissima in Europa. Da una parte il vecchio continente può vantare un primato indiscutibile: è stato il primo a dotarsi del GDPR nel 2018 e poi dell’AI Act. Dall’altra, però, Bruxelles fatica a trovare un equilibrio che non disperda tutto quel patrimonio normativo accumulato negli anni. E il nodo centrale è proprio qui: semplificare le regole per le imprese senza sacrificare la protezione delle persone.
Le grandi aziende tecnologiche americane, con il sostegno del presidente statunitense Donald Trump, continuano a premere per alleggerire i vincoli sulla gestione dei dati. Il punto di pressione principale è il Digital Omnibus, quel pacchetto di proposte presentato a fine 2025 per armonizzare norme come il GDPR, il Data Act e lo stesso AI Act. L’obiettivo dichiarato è abbattere la burocrazia, attrarre investimenti e provare a colmare il divario con Stati Uniti e Cina. Ma secondo il Corporate Europe Observatory, dietro questa narrazione si nasconde un rischio concreto: regole digitali più deboli finiscono per rafforzare il potere di Google, Microsoft e Meta, rendendo l’Europa ancora più dipendente dalle big tech anziché meno.
In Italia, a ottobre 2025, è entrato in vigore il primo quadro normativo nazionale sull’intelligenza artificiale con la Legge 132/2025, che ha istituito le Autorità nazionali competenti. Il problema, però, è che si tratta di una cornice ancora in attesa dei decreti attuativi. Chi paga se un algoritmo sbaglia? Come ci si difende legalmente? Quali sono i tempi per ottenere un risarcimento? Nessuna di queste domande ha ancora una risposta chiara. Come spiega l’avvocato Rocco Panetta, esperto di diritto applicato alle nuove tecnologie, l’AI Act deve ancora superare il vero banco di prova, quello del mercato, e il percorso italiano resta un cantiere aperto con atti delegati da adottare entro dodici mesi.
Il nodo del risarcimento e gli articoli ancora inapplicati dell’AI Act
Un tassello fondamentale riguarda la disciplina del risarcimento del danno. L’AI Act non la prevede in modo generale: quella parte era contenuta nella proposta di AI Liability Directive, poi ritirata dalla Commissione. Resta la nuova Product Liability Directive 2024/2853, che però deve essere recepita entro il 9 dicembre 2026, come precisa Fabiana Di Porto, docente di Innovation Law & Regulation alla Luiss di Roma.
Nel frattempo, un policy paper intitolato “Garantire i diritti nell’era dell’AI”, presentato alla Camera dei deputati da The Good Lobby e Hermes Center, chiede che il modello del GDPR venga preso come riferimento per creare un iter standardizzato per i reclami. Laura Ferrari di The Good Lobby ha sottolineato come tutti i cittadini possano subire danni dall’intelligenza artificiale, specialmente le categorie più vulnerabili, e ha chiesto alle istituzioni di privilegiare la difesa degli interessi della società rispetto al solo profitto economico.
Gli articoli 85 e 86 dell’AI Act restano il principale nodo irrisolto. Il primo garantisce il diritto di presentare un reclamo, il secondo tutela il diritto di comprendere come un sistema di AI prenda decisioni che possono riguardare, ad esempio, l’erogazione di un prestito o una valutazione lavorativa. La deputata Elisabetta Piccolotti di Alleanza Verdi e Sinistra ha parlato del rischio di un “far west normativo” che espone le persone a discriminazioni e sorveglianza senza adeguate possibilità di ricorso.
L’Omnibus AI e lo scontro al Parlamento europeo
La commissaria europea Henna Virkkunen ha annunciato l’intenzione di approvare l’AI Omnibus entro l’estate, per garantire condizioni giuridiche certe. Il Parlamento europeo il 26 marzo ha approvato il mandato negoziale sulla proposta, ma lo scontro politico è tutt’altro che risolto. L’eurodeputato del Pd Brando Benifei ha spiegato che sono state respinte le proposte più pericolose, quelle che avrebbero escluso dall’applicazione della legge l’intelligenza artificiale usata nei rapporti tra imprese, e si è ottenuto il divieto sui cosiddetti “nudifier”, i sistemi che generano immagini sessualmente esplicite di persone reali senza consenso. Tuttavia, alcune modifiche rischiano di frammentare la logica unitaria dell’AI Act.
Lo Human Rights Research Center ha evidenziato che le modifiche proposte dalla Commissione includono una sostanziale ridefinizione di dati personali, una mossa che potrebbe indebolire protezioni consolidate e ridurre la capacità delle persone di esercitare il proprio diritto di accesso. La rete European Digital Rights (Edri) si è spinta oltre, sostenendo che il modo più sicuro per proteggere il quadro normativo digitale europeo sia respingere completamente il Digital Omnibus. Sulla stessa linea il think tank Jacques Delors, secondo cui la Commissione presenta come modifiche tecniche quelli che in realtà sono cambiamenti sostanziali, con il rischio che gli effetti positivi per le imprese vengano controbilanciati dall’aumento dell’incertezza giuridica e dalle spese di adeguamento.
