
AI
Google ha annunciato l’adesione al Codice di Condotta volontario sull’intelligenza artificiale promosso dalla Commissione Europea, un passo che segna il suo allineamento formale alle linee guida etiche delineate nel contesto dell’AI Act. Tuttavia, l’azienda ha espresso preoccupazioni rilevanti sugli effetti potenzialmente negativi che tale quadro normativo potrebbe avere sull’innovazione in Europa.
Un codice volontario per guidare la conformità
Il Codice di Condotta sull’AI è stato progettato come strumento preliminare per supportare le aziende nella transizione verso la futura conformità con l’AI Act, il regolamento vincolante che entrerà in vigore nei prossimi anni. Google, insieme ad altri grandi player del settore, ha scelto di firmare il codice pur sottolineando alcuni limiti. Secondo Kent Walker, Presidente degli Affari Globali di Google, il documento rappresenta un passo importante, ma anche un potenziale ostacolo allo sviluppo.
Nel suo intervento ufficiale, Walker ha messo in guardia sul fatto che alcune disposizioni potrebbero “raffreddare lo sviluppo” dell’intelligenza artificiale in Europa. Google teme che procedure troppo lente, l’obbligo di trasparenza su elementi proprietari e deviazioni normative sul copyright possano frenare l’introduzione e l’evoluzione dei modelli AI su scala europea, incidendo negativamente sulla competitività internazionale.
Le criticità sollevate
- Tra i nodi principali citati da Google figurano:
- Il rischio di rivelare segreti industriali attraverso requisiti di trasparenza troppo estesi;
- Le lungaggini burocratiche nei processi di autorizzazione;
- Disallineamenti con altre normative, in particolare quelle relative al copyright, che potrebbero rendere più difficile la distribuzione e l’utilizzo dei modelli AI.
Questi aspetti, sottolinea l’azienda, potrebbero penalizzare le imprese europee rispetto ai concorrenti di Stati Uniti, Cina o altri mercati meno vincolati da regole simili.
La firma del Codice arriva in un contesto globale caratterizzato da un intenso dibattito sull’AI: da un lato emergono problemi come la proliferazione dei deepfake, i consumi energetici dei data center e la bassa affidabilità dei modelli in alcuni ambiti; dall’altro lato cresce il timore che una normativa eccessiva possa frenare lo sviluppo tecnologico, spingendo le aziende a trasferire la ricerca altrove.
Google riconosce l’importanza di principi etici condivisi e trasparenza, ma chiede che la regolazione non si trasformi in un ostacolo strutturale alla crescita. Walker sottolinea infatti la necessità di trovare un compromesso sostenibile che non metta a rischio la posizione europea nel settore.
