Il settore dell’AI si trova al centro di una nuova controversia che coinvolge direttamente OpenAI e uno dei suoi principali concorrenti, Anthropic. La discussione è nata dopo l’accordo siglato dall’azienda guidata da Sam Altman con il Dipartimento della Difesa degli Stati Uniti. Una collaborazione che ha immediatamente sollevato domande etiche e politiche.
A criticare l’intesa è stato Dario Amodei, amministratore delegato e cofondatore di Anthropic. In una comunicazione interna indirizzata ai dipendenti, riportata dal sito The Information, Amodei ha contestato il modo in cui OpenAI avrebbe presentato il contenuto dell’accordo con il governo americano. Secondo il manager, la narrativa utilizzata dall’azienda rivale non rappresenterebbe con precisione i termini reali della collaborazione.
La tensione tra le due società non è casuale. Anche Anthropic aveva intrattenuto rapporti con il settore militare statunitense, ottenendo in passato un contratto da circa 200 milioni di dollari. L’azienda però aveva posto condizioni molto precise sull’utilizzo della propria tecnologia. Tra queste figuravano limiti stringenti. Ad esempio niente impiego per la sorveglianza di massa sul territorio nazionale e nessun utilizzo per lo sviluppo di sistemi d’arma completamente autonomi.
OpenAI tra difesa della reputazione e nuove critiche
Il confronto con il governo statunitense si sarebbe però complicato proprio su questi punti. Il Dipartimento della Difesa avrebbe chiesto maggiore libertà di utilizzo delle tecnologie AI, purché rientrassero nei limiti previsti dalla legge. Una posizione che ha portato Anthropic a interrompere il dialogo con il Pentagono.
Con l’uscita di scena di Anthropic, il Dipartimento della Difesa ha deciso di affidarsi a OpenAI, che ha accettato di collaborare con il governo. Sam Altman ha chiarito pubblicamente che l’accordo include comunque alcune restrizioni. Tra esse vi sono il divieto di utilizzare i sistemi dell’azienda per operazioni di sorveglianza domestica su larga scala.
Nonostante tali precisazioni, la scelta ha alimentato un acceso dibattito sia tra gli esperti sia nell’opinione pubblica. Alcuni osservatori sottolineano che il concetto di utilizzo “legale” della tecnologia può cambiare nel tempo. Soprattutto se nuove normative dovessero ampliare il campo delle applicazioni consentite. Proprio questo aspetto alimenta le preoccupazioni di chi teme che l’intelligenza artificiale possa diventare sempre più integrata nei sistemi militari. Allo stesso tempo, il caso mette in evidenza l’enorme competizione tra le aziende che sviluppano AI avanzata, sempre più coinvolte nei grandi equilibri geopolitici.
Per OpenAI, la sfida ora è doppia. Da un lato mantenere la fiducia del pubblico e della comunità tecnologica, dall’altro non compromettere i rapporti con le istituzioni governative che vedono nell’IA uno strumento strategico per il futuro.
