La diffusione dell’intelligenza artificiale ha trasformato in pochi anni il panorama tecnologico. Generando opportunità senza precedenti ma anche nuove forme di rischio. La crescente autonomia degli agenti AI e la complessità dei sistemi digitali, infatti, hanno aperto la strada a vulnerabilità che possono essere sfruttate da cyber-criminali e truffatori. In tale contesto, la capacità di anticipare le minacce e proteggere dati e infrastrutture è diventata una priorità strategica. A tal proposito, Google ha sviluppato soluzioni innovative per utilizzare l’AI come strumento di difesa informatica. Tra le iniziative c’è CodeMender, un agente basato sull’intelligenza artificiale progettato per l’“autodifesa autonoma”.
Cyber-sicurezza: Google punta sull’intelligenza artificiale
Sfruttando le capacità di ragionamento avanzato dei modelli Gemini, CodeMender individua e corregge automaticamente le vulnerabilità critiche nel codice. Accelerando l’applicazione delle patch di sicurezza e riducendo il rischio di exploit nel software open-source. La tecnologia integra funzioni di analisi della causa e applicazioni di patch “auto-validate”, che vengono verificate da agenti specializzati prima della convalida finale da parte degli utenti. Combinando così velocità, precisione e sicurezza.
Il rafforzamento della sicurezza passa anche attraverso l’aggiornamento del Secure AI Framework alla versione SAIF 2.0. La quale estende le linee guida per gli agenti AI quasi autonomi. Il framework introduce strumenti come l’Agent Risk Map, che permette di mappare le minacce derivanti da agenti intelligenti, e definisce requisiti di sicurezza “by design”, con supervisione umana, capacità limitate e azioni osservabili. La donazione di tali dati alla CoSAI (Coalition for Secure AI Risk Map Initiative) rappresenta un passo importante verso la condivisione di conoscenze e standard internazionali per la sicurezza dell’AI.
Allo stesso tempo, Google ha lanciato l’AI Vulnerability Reward Program (AI VRP). Quest’ultimo è volto a rafforzare la collaborazione con la comunità globale di ricercatori. Il programma offre un sistema di ricompense per la segnalazione di criticità legate alla sicurezza o all’abuso dell’AI. Incentivando la raccolta di dati contestuali fondamentali per la gestione dei rischi.
