Le cinque più grandi aziende americane nel campo dell’intelligenza artificiale hanno deciso di sottoporre i propri modelli AI a una valutazione governativa prima del rilascio pubblico. Si tratta di Google, Microsoft, xAI, Anthropic e OpenAI, che hanno raggiunto un accordo con il CAISI, il Center for AI Standards and Innovation, organo federale incaricato di verificare la sicurezza dei sistemi di intelligenza artificiale più avanzati.
Per Google, Microsoft e xAI si tratta di un impegno del tutto nuovo. OpenAI e Anthropic, invece, collaboravano già con questa struttura dal 2024, ma hanno aggiornato i rispettivi accordi per adeguarsi alle priorità indicate dall’AI Action Plan voluto dall’amministrazione Trump.
Cosa fa il CAISI e perché è così importante
Il CAISI opera sotto il National Institute of Standards and Technology e ha già completato oltre 40 valutazioni, comprese analisi condotte su modelli AI non ancora resi pubblici. La struttura è nata nel 2023, durante l’amministrazione Biden, con il nome di AI Safety Institute. Successivamente è stata rinominata, ma nella sostanza il suo ruolo non è cambiato: testare i sistemi più evoluti per individuare rischi legati a cybersecurity, biosicurezza e possibile uso improprio in ambito chimico.
Detto in modo più semplice, il Centro si occupa di verificare che gli utenti non possano ottenere dai chatbot informazioni pericolose. Ad esempio, istruzioni su come costruire un ordigno artigianale o su come violare un sito internet. Roba che, se finisse nelle mani sbagliate, potrebbe avere conseguenze molto serie. Ed è proprio per questo che la collaborazione tra le Big AI e il governo federale viene vista come un passaggio cruciale, specialmente ora che questi modelli diventano sempre più potenti e accessibili.
Verso un obbligo normativo?
Al momento il ruolo del CAISI non è stato ancora formalizzato dal punto di vista normativo e legale in modo permanente. Il Congresso sta lavorando alla questione e sono state presentate delle bozze, ma nulla è stato ancora approvato in via definitiva.
Quello che però rende la situazione particolarmente interessante è un altro aspetto. Quelle che oggi sono intese volontarie potrebbero diventare obbligatorie nel prossimo futuro. Secondo alcune fonti interne, l’amministrazione Trump starebbe già valutando concretamente questa mossa. Lo strumento scelto potrebbe essere, come spesso accaduto in passato, un ordine esecutivo. Un meccanismo che permetterebbe di rendere vincolanti i test di sicurezza governativi senza attendere i tempi lunghi dell’iter legislativo al Congresso.
