La linea di confine tra un ufficio asettico in Silicon Valley e una war room operativa del Pentagono si è sgretolata, lasciando dietro di sé una scia di dubbi che va ben oltre la semplice geopolitica. Tutto è nato da un cortocircuito comunicativo e ideologico: da un lato Anthropic, con Dario Amodei a dettare una linea etica rigorosa, convinta che l’intelligenza artificiale debba avere dei paletti invalicabili, come il divieto di sorveglianza di massa o l’uso autonomo nei sistemi d’arma.
Dall’altro, un Dipartimento della Difesa americano che vede in questi modelli non solo un supporto, ma un asset strategico imprescindibile per la supremazia militare. Quando Amodei si è seduto al tavolo con il segretario alla Difesa Pete Hegseth, il clima era già elettrico, ma le porte si sono chiuse definitivamente su un disaccordo di fondo: Washington voleva una libertà operativa che Anthropic considerava pericolosa, portando il Pentagono a una reazione stizzita, quasi punitiva, con l’esclusione dell’azienda dai canali privilegiati di fornitura militare.
Il caso Anthropic e la pressione del Dipartimento della Difesa
Ma è proprio qui che la trama si tinge di un giallo tecnologico inquietante. Mentre il Pentagono faceva calare il gelo sui rapporti ufficiali, le indiscrezioni hanno iniziato a mormorare di un utilizzo “ombra” proprio di quei modelli avanzati. Si sussurra che l’IA di Anthropic, nonostante l’ostracismo formale, sia stata il motore silenzioso dietro l’analisi di dati cruciali per l’attacco contro l’Iran.
Se queste voci corrispondessero al vero, ci troveremmo davanti a un cortocircuito etico di proporzioni ciclopiche: l’azienda viene punita per aver sollevato dubbi morali, ma le sue creature tecnologiche vengono comunque imbrigliate per pianificare scenari di conflitto reale.
Il conflitto tra morale e supremazia militare
È un tema che costringe a guardare in faccia la realtà del nostro tempo. Le promesse di “IA etica” e gli slogan sulla responsabilità digitale sembrano sciogliersi come neve al sole di fronte alle necessità belliche di una superpotenza. Le aziende tecnologiche si illudono di poter gestire i propri software come se fossero entità neutre, ma il potere statale, quando avverte l’odore di una crisi internazionale, non chiede il permesso: impone.
Il fatto che il Pentagono si stia già riavvicinando a OpenAI, lasciando Anthropic in una sorta di limbo, suggerisce che il gioco sia diventato molto più grande dei singoli ideali aziendali. Siamo di fronte a un bivio dove la sovranità tecnologica si scontra con le leggi sulla sicurezza nazionale, e se la tensione internazionale dovesse salire ulteriormente, la libertà di dire “no” del settore tech potrebbe trasformarsi rapidamente in un ricordo del passato.
