Claude AI continua a girare nei sistemi del Pentagono mentre le tensioni tra Stati Uniti e Iran diventano ogni giorno più difficili da decifrare. Ed è qui che nasce il corto circuito: da una parte una direttiva politica che punta a tenere certe tecnologie lontane dai contratti militari, dall’altra la realtà operativa di un Dipartimento della Difesa che, almeno per ora, non può semplicemente spegnere tutto e andare avanti come nulla fosse.
Non è nemmeno una storia nuova. Che Anthropic e il suo modello Claude fossero finiti, direttamente o indirettamente, dentro flussi di lavoro legati a pianificazioni militari era già emerso. Poi era arrivata la notizia della chiusura del contratto e, a fare rumore, anche l’intervento di Trump nel ribadire l’esclusione totale dai contratti militari. Una mossa che, sulla carta, sembrava chiudere la partita. E invece no: Claude AI è rimasto lì, in uso, proprio mentre il quadro geopolitico si irrigidiva.
Perché Claude AI non sparisce subito dai sistemi del Pentagono
Il punto, quello che spesso viene liquidato in una riga e invece spiega quasi tutto, è la finestra concessa al Dipartimento della Difesa: sei mesi per eliminare gradualmente questi sistemi dalle operazioni. Sei mesi non sono un dettaglio burocratico, sono il margine che trasforma un ordine politico in un processo lento, pieno di eccezioni e di passaggi intermedi.
Quando una tecnologia come Claude AI entra in un’organizzazione gigantesca, non resta confinata a un singolo ufficio. Può finire in strumenti di analisi, riassunti, supporto alla documentazione, ricerca interna, valutazioni di scenario. Togliere di mezzo un modello significa mappare dove viene usato, sostituirlo senza rompere procedure, assicurarsi che la catena di controllo funzioni, e soprattutto evitare che qualcuno, nel momento peggiore, rimanga senza un pezzo fondamentale del proprio flusso operativo.
Nel frattempo, molte aziende della difesa stanno cercando di prendere le distanze. Non per improvvisa conversione etica, quanto per gestione del rischio. Esporsi mentre Washington manda segnali contraddittori può voler dire finire sotto i riflettori, perdere commesse future, o ritrovarsi trascinati in una disputa legale e reputazionale che dura anni. In questo clima, il nome Anthropic diventa delicato anche solo da nominare.
La disputa su Anthropic e l’effetto della crisi tra Stati Uniti e Iran
La situazione è diventata paradossale perché la timeline politica e quella militare non si parlano. Nelle ore successive alla direttiva presidenziale, Stati Uniti e Israele hanno lanciato un attacco a sorpresa contro Teheran e da lì si è arrivati alla fase di conflitto che sta tenendo tutti con il fiato sospeso. Ed è proprio in momenti così che, nella pratica, i sistemi già integrati fanno fatica a essere dismessi davvero.
Da una parte c’è la volontà di mettere un confine netto tra settore pubblico militare e tecnologie di un’azienda come Anthropic. Dall’altra c’è un apparato che ragiona per continuità operativa: se un tool basato su Claude è già dentro un processo, staccarlo di colpo può creare ritardi, aumentare errori, complicare passaggi di verifica. E quando la crisi accelera, la tentazione di rimandare la sostituzione diventa forte, anche se politicamente scomoda.
Così si crea il doppio messaggio: ufficialmente si chiudono contratti, si annunciano esclusioni, si promettono tagli netti. Ma intanto Claude AI resta utilizzato fino alla scadenza del periodo di transizione, perché il sistema è stato progettato per cambiare lentamente, non di scatto. E in mezzo, come spesso accade, la tecnologia finisce a fare da bersaglio perfetto: visibile, discussa, facile da indicare. Molto più difficile, invece, è risolvere davvero il nodo tra esigenze di sicurezza, pressioni politiche e dipendenza operativa da strumenti che, nel bene e nel male, erano già entrati nella macchina.
