Il mondo AI è in netta crescita e probabilmente a dargli una spinta in più è stato l’arrivo del nuovo modello cinese DeepSeek. Dopo aver rifiutato il pericolo di una concorrenza molto forte, le altre aziende hanno cominciato a lanciare nuovi aggiornamenti con delle novità interessanti. Ovviamente c’è un aspetto che potrebbe far sorgere dei dubbi: gli hacker potrebbero utilizzare l’intelligenza artificiale per i loro scopi. Tra i modelli meno attaccabili in questo caso c’è sicuramente Gemini di Google, che in più casi si è rifiutato di aiutare cybercriminali in cerco di un aiuto per i loro obiettivi illegali.
Le protezioni di Gemini contro gli attacchi hacker
L’azienda di Mountain View ha lavorato intensamente per implementare barriere di sicurezza in grado di impedire che Gemini possa essere sfruttato in modo illecito. Secondo le informazioni condivise da Google, sono stati individuati diversi tentativi da parte di gruppi di hacker provenienti da Iran, Corea del Nord, Cina e Russia. In particolare, alcuni di questi cybercriminali hanno cercato di ottenere assistenza per:
- Elaborare tecniche di phishing avanzate per Gmail;
- Scrivere codice per un infostealer da usare su Chrome;
- Trovare metodi per bypassare i sistemi di verifica degli account Google.
Nonostante i tentativi, i sistemi di sicurezza integrati in Gemini hanno funzionato correttamente, impedendo l’accesso a informazioni sensibili o pericolose.
Il ruolo dell’AI nella cybersicurezza
Anche se gli hacker non sono riusciti a sfruttare Gemini per ottenere codice o strumenti di attacco, Google ha rilevato che questi gruppi hanno comunque utilizzato il chatbot per raccogliere informazioni su organizzazioni di difesa, ricercare vulnerabilità e creare contenuti per campagne malevole.
Questo dimostra quanto sia cruciale implementare sistemi di protezione nei chatbot basati sull’intelligenza artificiale, dato che strumenti come Gemini sono sempre più avanzati e potrebbero, se non adeguatamente protetti, diventare un’arma a doppio taglio.
Google, però, sembra aver fatto un ottimo lavoro nel proteggere la propria AI dagli abusi. In un periodo in cui l’intelligenza artificiale è sempre più diffusa, sapere che sistemi come Gemini non possono essere usati facilmente per scopi illeciti rappresenta un segnale positivo per la cybersicurezza globale.
