Una svolta significativa potrebbe essere alle porte per il settore dell’intelligenza artificiale negli Stati Uniti. L’amministrazione Trump starebbe infatti discutendo un ordine esecutivo pensato per introdurre un processo di revisione governativa obbligatoria sui nuovi modelli di AI prima che vengano messi a disposizione del pubblico.
La notizia rappresenta un potenziale cambio di rotta notevole. Soprattutto considerando l’approccio tradizionalmente poco interventista che la politica statunitense ha avuto nei confronti della regolamentazione dell’IA. Un processo di vetting pre-rilascio significherebbe, in pratica, che ogni nuovo modello di AI dovrebbe ottenere una sorta di via libera governativo prima di poter essere lanciato sul mercato. Qualcosa che fino a poco tempo fa sarebbe sembrato impensabile nel contesto normativo americano.
Trump, il ruolo di Anthropic e del modello Mythos nella discussione
A quanto pare, uno dei fattori che avrebbe spinto l’amministrazione a riconsiderare la propria posizione è legato ad Anthropic, e più nello specifico al modello noto come Mythos. Il caso Mythos viene citato come catalizzatore di questa inversione di rotta politica, segno che le capacità raggiunte dai modelli di intelligenza artificiale più recenti stanno iniziando a preoccupare anche chi finora aveva preferito lasciare il settore libero di autoregolarsi.
Anthropic, va ricordato, è una delle aziende più in vista nel mondo dell’AI generativa. È stata fondata da ex membri di OpenAI con l’obiettivo dichiarato di sviluppare intelligenza artificiale in modo sicuro e responsabile. Il fatto che proprio un prodotto di Anthropic venga indicato come elemento scatenante della discussione politica aggiunge un livello di complessità alla questione. Non si tratta di un’azienda considerata negligente o poco attenta alla sicurezza, eppure le capacità dimostrate dal modello Mythos avrebbero evidentemente sollevato interrogativi abbastanza seri da far muovere la macchina politica.
Cosa potrebbe cambiare per il settore AI
Se l’ordine esecutivo dovesse effettivamente vedere la luce, le conseguenze per l’intero ecosistema dell’intelligenza artificiale sarebbero rilevanti. Le aziende che sviluppano modelli di AI si troverebbero a dover sottoporre i propri prodotti a un processo di revisione governativa, con tempi e modalità ancora tutti da definire. Questo potrebbe rallentare il ritmo frenetico con cui vengono lanciati nuovi modelli. Allo stesso tempo però potrebbe introdurrebbe un livello di supervisione che molti, anche all’interno del settore, considerano ormai necessario.
La discussione è ancora nelle fasi iniziali e non è detto che si arrivi a un provvedimento definitivo. Tuttavia, il solo fatto che l’amministrazione Trump stia considerando una misura del genere segnala quanto rapidamente stia cambiando la percezione del rischio legato ai modelli di intelligenza artificiale più avanzati. Da un approccio permissivo si potrebbe passare a un quadro normativo in cui il governo federale statunitense assume un ruolo attivo nel decidere quali modelli di AI possano raggiungere il pubblico e quali no.
La proposta di un controllo pre-rilascio obbligatorio sui modelli di IA resta per ora al livello di discussione interna all’amministrazione, con Mythos di Anthropic indicato come il caso che ha acceso i riflettori sulla necessità di un intervento normativo più deciso.
