Chatbot AI: uno studio evidenzia quando sia facile hackerarli

Di recente, è emerso un nuovo studio che ha evidenziato quanto possa essere facile per gli hacker violare i chatbot AI.

chatbot

Nel settore tecnologico odierno, i chatbot alimentati dall’intelligenza artificiale sono diventati strumenti di uso quotidiano. Impiegati in svariati contesti: dall’assistenza allo studio, fino al semplice intrattenimento. Soluzioni come Gemini Live e altri assistenti conversazionali rendono l’interazione con la tecnologia più fluida e naturale. Offrendo risposte rapide e spesso sorprendenti. Eppure, dietro tali interfacce  si cela un potenziale rischio. Quest’ultimo è stato messo in evidenza da uno studio condotto presso l’Università Ben Gurion del Negev, in Israele. I ricercatori, Lior Rokach e Michael Fire, hanno dimostrato che non occorre essere esperti hacker per ottenere da tali sistemi informazioni su attività vietate. Con una tecnica definita “jailbreak universale”, è possibile eludere i filtri di sicurezza dei chatbot spingendoli a rispondere in modo dettagliato su argomenti delicati come truffe online, produzione di sostanze illegali o pratiche di hacking.

Chatbot AI usati dagli hacker: ecco come

Il trucco consiste nel formulare i prompt in modo ambiguo o creativo. Facendo apparire le richieste come innocue, ma mirate in realtà a ottenere dati pericolosi. Tale comportamento deriva in parte dalla natura stessa dei modelli linguistici, i quali sono addestrati su vasti archivi di dati raccolti da internet. Oltre a contenuti educativi o culturali, tali archivi possono includere anche materiale controverso. Ovvero quello proveniente da forum underground, blog non regolamentati o manuali tecnici con scopi discutibili. Nonostante siano stati predisposti dei meccanismi di filtraggio, i sistemi possono ancora essere manipolati tramite richieste ben studiate.

Un ulteriore motivo di preoccupazione è rappresentato dalla crescita dei cosiddetti “modelli oscuri”, o dark LLM. Ovvero versioni di chatbot distribuite senza vincoli etici. Tali modelli vengono talvolta promossi proprio per la loro capacità di rispondere senza censura, offrendo supporto anche in ambiti criminali. Una volta resi pubblici, possono essere scaricati, modificati e usati da chiunque. Diventando così una potenziale minaccia alla sicurezza collettiva.

Per fronteggiare tali rischi, i ricercatori suggeriscono approcci multilivello. Partendo dal raffinare i dataset di addestramento, implementare firewall specializzati e, soprattutto, sviluppare meccanismi di machine unlearning. Ovvero la capacità per le AI di dimenticare in modo selettivo contenuti dannosi già acquisiti.

Google News Rimani aggiornato seguendoci su Google News!

2012 – 2023 Tecnoandroid.it – Gestito dalla STARGATE SRLS – P.Iva: 15525681001 Testata telematica quotidiana registrata al Tribunale di Roma CON DECRETO N° 225/2015, editore STARGATE SRLS. Tutti i marchi riportati appartengono ai legittimi proprietari.

Questo articolo potrebbe includere collegamenti affiliati: eventuali acquisti o ordini realizzati attraverso questi link contribuiranno a fornire una commissione al nostro sito.