La notizia arriva forte e chiara: un exploit zero-day sviluppato con l’aiuto dell’intelligenza artificiale è stato individuato per la prima volta nella storia da Google. A rendere pubblica la scoperta è stato il Threat Intelligence Group (GTIG) di Google, il team dedicato all’analisi delle minacce informatiche, che ha confermato di aver identificato un attore malevolo in possesso di un exploit che, con alto grado di certezza, sarebbe stato creato grazie a un modello di IA.
Le vulnerabilità zero-day rappresentano da sempre una delle minacce più insidiose nel panorama della cybersicurezza. Il motivo è semplice: si tratta di falle sconosciute ai bersagli, che quindi non hanno letteralmente nemmeno un giorno per prepararsi e difendersi. Quando un attaccante scopre una di queste vulnerabilità prima di chiunque altro, il vantaggio è enorme. Ora, il fatto che un modello di intelligenza artificiale sia stato utilizzato per scoprire e trasformare in arma una di queste falle cambia parecchio le carte in tavola.
Secondo quanto riportato da Google, l’attore malevolo stava pianificando di sfruttare l’exploit in un evento di “sfruttamento di massa”. La scoperta preventiva, però, potrebbe aver impedito che venisse effettivamente utilizzato. Google ha inoltre precisato che i propri modelli Gemini non sarebbero stati coinvolti nella creazione dell’exploit, ma ha espresso comunque un’elevata fiducia nel fatto che un modello di IA abbia giocato un ruolo chiave sia nell’individuazione della vulnerabilità sia nella sua trasformazione in strumento offensivo.
Chi c’è dietro e cosa sappiamo del bersaglio
Il rapporto del GTIG non ha rivelato né il bersaglio dell’attacco né l’identità precisa degli attori coinvolti. Google ha comunque notificato l’azienda colpita, che ha provveduto a correggere il problema con una patch. Pur senza fare nomi espliciti, il rapporto ha lasciato intendere che soggetti associati a Cina e Corea del Nord avrebbero mostrato un “interesse significativo” nell’utilizzo dell’intelligenza artificiale per sfruttare falle di sicurezza.
John Hultquist, analista capo del GTIG, ha descritto la situazione in modo piuttosto eloquente, parlando di “un assaggio di ciò che verrà” e della “punta dell’iceberg”. Questo caso rappresenterebbe solo la prima “prova tangibile” di attacchi di questo tipo, ma è lecito aspettarsi che non resterà isolato a lungo. Del resto, vista la velocità con cui i modelli di IA si sono evoluti nell’uso quotidiano, era solo questione di tempo prima che qualcuno li impiegasse con intenti malevoli.
L’intelligenza artificiale come arma e come scudo
Google ha sottolineato nel proprio rapporto che gli attori malevoli stanno già utilizzando l’intelligenza artificiale in diverse fasi degli attacchi informatici, dalla ricognizione iniziale fino alla creazione degli strumenti offensivi veri e propri. Ma c’è anche l’altro lato della medaglia: la stessa IA può diventare uno strumento potentissimo per chi difende. Google stessa ne è un esempio, avendo individuato la minaccia proprio grazie alle proprie capacità di analisi avanzata.
Non è l’unica azienda a muoversi in questa direzione. Il mese scorso, Anthropic ha annunciato il progetto Glasswing, un’iniziativa che sfrutta Claude Mythos Preview per individuare e contrastare vulnerabilità ad alta gravità. La corsa tra attacco e difesa, insomma, si sta spostando sempre più sul terreno dell’intelligenza artificiale, con entrambe le parti che cercano di sfruttarne il potenziale al massimo. Quello che è certo è che la scoperta di Google segna un punto di svolta concreto: la prima volta in cui un exploit zero-day creato con l’IA è stato intercettato prima di causare danni su larga scala.
