Intelligenza Artificiale, il nuovo ordine esecutivo di Biden potrebbe cambiarne il futuro

L’ordine esecutivo emesso dal presidente degli Stati Uniti, Joe Biden, rappresenta un’azione decisiva nel campo dell’intelligenza artificiale (IA), delineando un quadro normativo che mira a posizionare gli Stati Uniti come pionieri nella governance globale dell’IA. Questo provvedimento si propone di affrontare le sfide e i rischi associati all’IA, inclusi quelli legati alla creazione di deepfake, alla perdita di posti di lavoro e alle minacce esistenziali che potrebbero emergere dall’uso improprio di tali tecnologie.

Intelligenza Artificiale: gli ambiti strategici

Il piano delineato nell’ordine esecutivo si articola in otto ambiti strategici, ciascuno dei quali è volto a garantire che lo sviluppo e l’impiego dell’IA siano sicuri, equi e rispettosi dei diritti fondamentali. Le aree di intervento includono:

  1. La definizione di norme di sicurezza per garantire che i sistemi di IA siano affidabili e non comportino rischi per gli utenti o per la società.
  2. La protezione della privacy degli individui, assicurando che i dati personali non siano utilizzati in modo improprio.
  3. La promozione dell’equità e la tutela dei diritti civili, per prevenire discriminazioni e bias nei sistemi di IA.
  4. La salvaguardia dei diritti dei consumatori, con particolare attenzione alla trasparenza e all’accountability delle aziende che operano nel settore dell’IA.
  5. La considerazione dell’impatto dell’IA sul lavoro, con l’obiettivo di minimizzare la perdita di posti di lavoro e promuovere una transizione equa per i lavoratori.
  6. Il sostegno all’innovazione e alla concorrenza, per mantenere un mercato dinamico e stimolare la ricerca e lo sviluppo.
  7. L’affermazione della leadership internazionale, attraverso la collaborazione con altri paesi e organizzazioni internazionali per definire standard globali.
  8. La definizione di una governance dell’IA, con la creazione di un quadro di riferimento per la regolamentazione e il monitoraggio dei sistemi di IA.

Una delle iniziative più rilevanti è l’introduzione di linee guida per la marcatura dei contenuti generati dall’IA, al fine di mitigare i rischi associati ai deepfake. Inoltre, si richiede alle aziende che sviluppano IA di validare la sicurezza dei loro modelli prima del rilascio sul mercato.

Articolo precedenteXiaomi Redmi Buds 4 Lite, cuffie a prezzo RIDICOLO su Amazon: tue a 19€
Articolo successivoXAI, Musk lancerà un’intelligenza artificiale che farà fuori il genere umano