Anthropic rifiuta le nuove condizioni imposte dal Pentagono e lo fa a poche ore dalla scadenza dell’ultimatum. La scelta non è un gesto di chiusura totale alla cooperazione militare, bensì una linea netta tracciata su due fronti sensibili: la sorveglianza di massa e le armi autonome senza supervisione umana. La voce dell’azienda arriva tramite una dichiarazione pubblica dell’amministratore delegato Dario Amodei, che ribadisce quanto già noto nel settore e aggiunge dettagli poco rassicuranti per chi immaginava una semplice schermaglia contrattuale.
Dietro il rifiuto c’è un nodo etico ma anche legale: il Pentagono avrebbe chiesto clausole che consentono usi più ampi dei modelli, incluse modifiche alle misure di sicurezza oggi attive, e Anthropic non intende concedere questa libertà senza garanzie serie. Nel frattempo si parla di convocazioni ai piani alti e di minacce di sanzioni contrattuali qualora non venisse raggiunta un’intesa veloce.
Contrasti tecnici e morali al centro del contendere
Il dettaglio più interessante non è che alcune grandi aziende abbiano accettato i nuovi termini mentre Anthropic ha detto no. Il punto sta nella definizione di cosa sia accettabile per la difesa e cosa non lo sia per la società. Il modello Claude è già impiegato in contesti di intelligence, simulazione e operazioni mission critical e l’azienda non nasconde il proprio contributo alla sicurezza nazionale. Però la distinzione fra applicazioni militari legittime e uso interno massivo non è affare da poco.
Amodei sottolinea un rischio tecnologico strutturale: sistemi di intelligenza artificiale moderni possono aggregare quantità enormi di dati pubblici e trasformarli in profili estremamente dettagliati di individui. Quello che oggi è legale potrebbe domani mettere alla prova i principi democratici se non si definiscono limiti chiari e strumenti di responsabilità precisi. La proposta di Anthropic di collaborare per migliorare l’affidabilità dei sistemi, secondo l’azienda rifiutata dal Dipartimento, dimostra una volontà di dialogo che però si scontra con la necessità politica di soluzioni rapide.
Implicazioni strategiche e possibili scenari
Se si arrivasse all’interruzione dei rapporti, il rischio pratico è la perturbazione della catena di approvvigionamento tecnologica, con appaltatori che dipendono dai servizi di Anthropic per funzioni critiche. Sul tavolo del governo sarebbe finita anche l’ipotesi di utilizzare strumenti di potere come il Defense Production Act per forzare cambiamenti nelle misure di sicurezza, una mossa che suona estrema se rivolta a un’impresa nazionale.
La situazione crea tre tensioni convergenti: quella tecnologica perché si ridefiniscono i confini d’uso dei modelli di frontiera, quella politica perché si confrontano sicurezza nazionale e libertà civili, quella industriale perché emergono divergenze fra attori come OpenAI e xAI che hanno scelto rotte diverse. Anthropic assicura che in caso di stop garantirà una transizione ordinata verso altri fornitori, ma la partita resta aperta e densa di conseguenze. Sullo sfondo resta la domanda più scomoda: come regolare strumenti che crescono più in fretta delle leggi che dovrebbero contenerli.
