OpenAI lavorerà ufficialmente con il Dipartimento della Difesa degli Stati Uniti. L’annuncio è arrivato con la firma di un contratto da 200 milioni di dollari, che sancisce la nascita di una nuova iniziativa chiamata OpenAI for Government. L’accordo prevede lo sviluppo di strumenti avanzati basati sull’intelligenza artificiale, con particolare attenzione alla cyberdifesa proattiva.
Si tratta del primo contratto tra l’azienda guidata da Sam Altman e il DoD, e coprirà un periodo iniziale di un anno, con attività concentrate principalmente nella zona di Washington D.C., Maryland e Virginia. L’obiettivo è quello di creare prototipi di tecnologie AI in grado di affrontare sfide cruciali per la sicurezza nazionale, sia sul campo che nelle operazioni gestionali più complesse.
ChatGPT entra ufficialmente nel settore pubblico statunitense
Questa nuova fase arriva dopo il lancio, nei mesi scorsi, di una versione dedicata di ChatGPT per le agenzie governative statunitensi. Ora, con il programma OpenAI for Government, sarà possibile accedere a ChatGPT Enterprise, ChatGPT Gov e a modelli personalizzati pensati per usi legati alla difesa.
OpenAI ha chiarito che l’utilizzo dei suoi modelli, anche in ambito governativo, dovrà rispettare le sue policy, che vietano esplicitamente lo sviluppo di armi o l’uso della tecnologia per danneggiare persone o infrastrutture. Resta però aperto il dibattito sul confine tra innovazione e controllo, soprattutto in un contesto così sensibile.
L’AI militare cresce, e non solo con OpenAI
OpenAI non è l’unica azienda coinvolta in progetti militari basati sull’intelligenza artificiale. Anthropic, ad esempio, ha presentato un modello con regole meno rigide pensato per l’uso da parte di agenzie di intelligence e difesa. Anche Metaha già concesso l’uso del modello Llama AI per finalità legate alla sicurezza nazionale.
Nel frattempo, il clima politico negli Stati Uniti sta cambiando. Il disegno di legge One Big Beautiful Bill, promosso dall’amministrazione Trump, punta a rimuovere molte delle attuali restrizioni sull’AI nei prossimi anni. Un’accelerazione normativa che potrebbe rendere più difficile mantenere un equilibrio tra sviluppo e responsabilità. E in un settore dove l’AI incontra la sicurezza nazionale, è un tema da seguire con particolare attenzione.
