Google ha ufficialmente lanciato l’AI Vulnerability Reward Program, un nuovo programma di ricompense pensato per migliorare la sicurezza delle sue tecnologie di intelligenza artificiale. L’iniziativa rappresenta un’estensione del classico “bug bounty” dell’azienda. Si concentra esclusivamente sull’AI, un settore in rapida espansione e sempre più al centro dell’attenzione in materia di privacy e sicurezza.
L’obiettivo è chiaro: coinvolgere la comunità globale per individuare vulnerabilità critiche nei sistemi AI di Google. Ciò consente di risolverle prima che possano essere sfruttate in scenari reali. In altre parole, si tratta di una collaborazione aperta che mira a rendere l’intelligenza artificiale più affidabile e resistente agli abusi.
Il programma copre una vasta gamma di prodotti e servizi, dai più conosciuti come Google Search, le applicazioni Gemini su Web, Android e iOS, fino alla suite Google Workspace, che comprende Gmail, Drive, Meet e Calendar. Anche strumenti meno noti ma strettamente legati al mondo AI, come AI Studio e Jules, rientrano nel perimetro di questa iniziativa. Gli utenti sono invitati a individuare falle che possano causare comportamenti anomali o consentire accessi non autorizzati ai dati. Si presta particolare attenzione ai sistemi basati su modelli linguistici e alle funzioni automatizzate.
Google lancia un nuovo programma per premiare chi trova bug nei suoi sistemi AI
A seconda della gravità della vulnerabilità scoperta e dell’importanza del prodotto coinvolto, le ricompense possono variare sensibilmente. Per i problemi più critici, classificati da Google come “Rogue Actions”, ossia azioni non autorizzate eseguite da un sistema AI, i premi partono da 10.000 dollari e possono arrivare fino a 20.000 dollari. In caso di segnalazioni di qualità eccezionale, la cifra può salire fino a 30.000 dollari. Anche le vulnerabilità legate alla fuga di dati sensibili vengono retribuite con importi importanti. Questi raggiungono fino a 15.000 dollari per i prodotti principali.
Le categorie considerate meno gravi, come i casi di phishing abilitato da un modello, furto del modello stesso o manipolazione del contesto (ad esempio attraverso prompt malevoli), prevedono comunque ricompense che possono raggiungere i 5.000 dollari. Premi più contenuti vengono invece assegnati per falle legate all’utilizzo non autorizzato dei prodotti o a problemi di Denial of Service tra utenti.
Google ha stabilito regole molto precise per definire cosa costituisce una vulnerabilità valida: sono considerate critiche solo le falle che consentono al sistema AI di compiere azioni dannose, accedere a dati di altri utenti, o aggirare controlli di sicurezza. Non rientrano invece nel programma gli errori legati alla generazione di contenuti, come le cosiddette “allucinazioni” dei modelli, la produzione di testi inappropriati o violazioni di copyright. In questi casi, l’azienda invita a utilizzare i consueti strumenti di segnalazione presenti nei suoi prodotti. Così, i team interni possono migliorare l’addestramento dei modelli.
Nel 2024, invece, la compagnia ha distribuito quasi 12 milioni di dollari complessivi tramite il suo Vulnerability Reward Program generale. Dal lancio del primo programma di ricompense nel 2010, Google ha versato più di 65 milioni di dollari a ricercatori di tutto il mondo. I singoli premi hanno superato anche i 100.000 dollari.
