Sam Altman e il clamoroso dietrofront su OpenAI Cyber: dopo aver criticato apertamente Anthropic per la sua cautela nel distribuire strumenti di sicurezza informatica avanzati, ora l’azienda guidata da Altman fa esattamente la stessa cosa. Una vicenda che ha il sapore della beffa e che merita di essere raccontata nei dettagli.
Le critiche ad Anthropic e la questione Mythos
Poco tempo fa Sam Altman non si era fatto problemi a puntare il dito contro Anthropic, accusandola senza troppi giri di parole di fare marketing basato sulla paura. Il motivo? La decisione di limitare la diffusione di Mythos, un potente strumento di sicurezza informatica, rendendolo accessibile solo a un numero ristretto di utenti selezionati. Altman aveva definito quella scelta eccessivamente prudente, quasi teatrale, come se fosse più una mossa scenografica che una reale necessità di protezione. Parole dure, dette con una certa sicurezza. Parole che oggi suonano decisamente diverse.
Perché nel frattempo qualcosa è cambiato. Tramite un post su X, lo stesso Altman ha confermato il debutto di GPT-5.5 Cyber, un pacchetto di strumenti avanzatissimi pensati per la difesa digitale. Parliamo di tecnologie capaci di scovare falle nei sistemi, simulare attacchi per testare le resistenze delle infrastrutture e analizzare software malevoli per neutralizzarli. Roba seria, insomma. E proprio come aveva fatto Anthropic con Mythos, anche OpenAI ha deciso che non tutti potranno metterci le mani sopra.
Accesso limitato e procedure rigide: la stessa strada di Anthropic
L’accesso a OpenAI Cyber sarà inizialmente riservato in via esclusiva ai difensori informatici considerati critici. Un recinto dorato, di fatto, per una tecnologia che evidentemente porta con sé rischi concreti. Per ottenere l’accesso, gli utenti devono compilare un modulo dettagliato direttamente sul sito di OpenAI, fornendo prove concrete delle proprie credenziali professionali e spiegando nel dettaglio come intendono utilizzare il software.
Una procedura pensata per garantire che capacità potenzialmente pericolose, come l’identificazione e lo sfruttamento di vulnerabilità o l’ingegneria inversa dei malware, restino nelle mani giuste. Il timore che queste funzioni possano finire nelle mani di attori malintenzionati è reale e comprensibile. Ma è esattamente questa cautela che Altman aveva sbeffeggiato quando la praticava Anthropic. Difficile non notare la contraddizione.
L’ironia della vicenda e il precedente Mythos
C’è un ulteriore dettaglio che aggiunge un velo di ironia a tutta la storia. Le rigide barriere che Anthropic aveva messo in piedi per proteggere Mythos, alla fine, non sono bastate. Un gruppo non autorizzato, a quanto pare, è riuscito comunque a mettere le mani sullo strumento. Il che significa che anche le precauzioni più severe possono non essere sufficienti quando si ha a che fare con tecnologie così sensibili.
Un precedente che OpenAI avrà sicuramente presente nel gestire la distribuzione di GPT-5.5 Cyber, e che rende ancora più comprensibile la scelta di limitare l’accesso attraverso una selezione meticolosa degli utenti autorizzati. Resta il fatto che Sam Altman si trova oggi nella posizione esatta che aveva criticato, applicando le stesse identiche restrizioni che aveva definito eccessive quando le adottava la concorrenza.
