La parola chiave è AI militare. Ed è su questo terreno che si sta consumando uno scontro delicato tra il Pentagono e Anthropic, l’azienda che sviluppa il modello Claude. Il confronto è entrato in una fase critica dopo la convocazione dell’amministratore delegato Dario Amodei da parte del Segretario alla Difesa USA Pete Hegseth per un chiarimento diretto sul futuro utilizzo dell’intelligenza artificiale in ambito strategico.
Al centro della disputa non c’è solo una questione tecnica, ma un nodo politico e industriale: fino a che punto un modello di AI può essere impiegato in operazioni militari senza limiti preventivi?
I paletti di Anthropic sull’uso militare
La frizione nasce dalla richiesta dell’amministrazione americana alle principali aziende del settore di rendere le proprie tecnologie disponibili per tutti gli utilizzi consentiti dalla legge, senza restrizioni anticipate. Anthropic, però, avrebbe imposto condizioni precise.
In particolare, l’azienda avrebbe escluso l’impiego della propria AI per attività di sorveglianza di massa sui cittadini americani e per lo sviluppo di sistemi d’arma in grado di operare senza supervisione umana. Una posizione che la società ha sempre difeso come coerente con i propri principi di sicurezza e responsabilità nell’uso dell’intelligenza artificiale.
Il Dipartimento della Difesa, dal canto suo, ritiene necessario poter contare su strumenti pienamente disponibili per qualsiasi utilizzo ritenuto legale e strategicamente indispensabile.
Un contratto da 184 milioni già in corso
Il confronto assume un peso ancora maggiore considerando che la scorsa estate Anthropic ha firmato un accordo da circa 184 milioni di euro con il Dipartimento della Difesa. Il modello Claude risulta già integrato in alcuni sistemi classificati.
Secondo quanto emerso, la tecnologia sarebbe stata utilizzata anche durante l’operazione del 3 gennaio che ha portato alla cattura del presidente venezuelano Nicolás Maduro, episodio che ha generato reazioni internazionali e tensioni diplomatiche. Proprio questo precedente potrebbe aver spinto l’azienda a voler delimitare più chiaramente l’ambito di utilizzo della propria tecnologia.
L’ipotesi supply chain risk
Nelle ultime ore sarebbe emersa un’ipotesi ancora più drastica: classificare Anthropic come supply chain risk, etichetta che negli Stati Uniti viene riservata a soggetti considerati problematici per la sicurezza nazionale.
Una decisione di questo tipo comporterebbe l’annullamento del contratto in essere e l’esclusione del modello Claude da future collaborazioni con partner militari. Una mossa che avrebbe conseguenze economiche rilevanti per l’azienda, ma anche costi operativi per il Pentagono, chiamato a sostituire un sistema già implementato in infrastrutture sensibili.
La questione ora è se si tratti di una pressione negoziale o di una linea destinata a essere perseguita fino in fondo. L’equilibrio tra sicurezza nazionale, autonomia industriale e limiti etici dell’AI è entrato in una fase decisiva.
