Il governo degli Stati Uniti sta cambiando passo sul fronte del controllo dei modelli di intelligenza artificiale, siglando nuovi accordi con alcune delle più grandi aziende tecnologiche del pianeta. L’idea di fondo è piuttosto chiara: mettere le mani sui modelli prima che vengano rilasciati al pubblico, per valutarne i rischi in ambito di sicurezza informatica e difesa nazionale. A comunicarlo è stato il National Institute of Standards and Technology, che ha confermato come diverse aziende condivideranno versioni ancora inedite dei propri sistemi di IA con le autorità federali. Un passaggio che, nella pratica, rappresenta un cambio di rotta significativo nella gestione dell’intelligenza artificiale da parte di Washington.
Chi partecipa e come funzionano i test
Tra le aziende coinvolte spiccano Google, Microsoft e xAI, che lavoreranno fianco a fianco con il Center for AI Standards and Innovation, noto come CAISI, una struttura che fa capo al Dipartimento del Commercio statunitense. Il compito del centro è analizzare nel dettaglio le capacità dei modelli di IA e capire quale impatto possano avere sulla sicurezza pubblica e sulla difesa del Paese.
Il programma prevede test sia prima sia dopo la distribuzione delle tecnologie. Fino a oggi sono state portate a termine oltre 40 valutazioni, ma le nuove partnership puntano ad ampliare sensibilmente le risorse a disposizione. Chris Fall, direttore del CAISI, lo ha spiegato in modo abbastanza netto: “La scienza delle misurazioni indipendente e rigorosa è essenziale per comprendere l’IA di frontiera e le sue implicazioni per la sicurezza nazionale. Queste collaborazioni industriali ampliate ci aiutano a scalare il nostro lavoro nell’interesse pubblico in un momento critico.”
Uno dei fattori che ha accelerato questa spinta è l’arrivo di modelli sempre più potenti. Il caso di Mythos, sviluppato da Anthropic, ha fatto alzare parecchio il livello di attenzione. Secondo quanto dichiarato dall’azienda, si tratta di un sistema particolarmente avanzato nel campo della sicurezza informatica, tanto che non è stato ancora reso disponibile pubblicamente.
Anche OpenAI entra nella partita, mentre la Casa Bianca valuta nuove misure
Non solo Google, Microsoft e xAI. Anche OpenAI ha comunicato la disponibilità dei propri modelli per le agenzie governative statunitensi, con l’obiettivo di anticipare possibili minacce legate all’uso dell’intelligenza artificiale. È un segnale chiaro di quanto il tema sia diventato centrale nel dibattito politico e tecnologico.
Il rafforzamento dei controlli nasce anche da un problema strutturale che nessuno nasconde: le istituzioni pubbliche spesso non hanno le stesse risorse tecniche e computazionali delle grandi aziende. Non parliamo solo di soldi, ma proprio di capacità di analisi, di infrastrutture, di competenze. La collaborazione con il settore privato diventa quindi un elemento fondamentale per garantire valutazioni più approfondite e affidabili.
Nel frattempo, la Casa Bianca sta lavorando a qualcosa di ancora più strutturato. Si valuta la creazione di un processo formale di revisione per i nuovi modelli di intelligenza artificiale, una misura che segnerebbe un distacco netto rispetto all’approccio decisamente più permissivo adottato negli anni passati. Se dovesse concretizzarsi, ogni nuovo modello di IA potrebbe dover passare attraverso una sorta di iter ufficiale prima di poter essere distribuito al pubblico.
