Scoperta allarmante: GPT-4 può hackerare siti web autonomamente

Un nuovo studio condotto da alcuni ricercatori ha creato gravi preoccupazioni riguardo alle capacità di GPT-4 tra gli esperti digitali. Per chi non lo sapesse, si tratta di un avanzato modello di intelligenza artificiale alla base del conosciuto ChatGTP. La cosa che ha suscitato scalpore è che è in grado di hackerare siti web autonomamente, senza richiedere alcun intervento umano. Questa scoperta è una minaccia grave per la sicurezza online, poiché rende accessibile a chiunque, anche a individui senza competenze in programmazione o hacking, la possibilità di effettuare attacchi informatici.

Il team di ricerca ha testato 10 diversi modelli di intelligenza artificiale, mettendoli alla prova nell’hackerare 15 siti web diversi, senza fornire istruzioni su quali ed quante vulnerabilità ci fossero. La maggior parte di queste ha mostrato risultati deludenti, ma GPT-4 si è distinto  tra tutti  di parecchio sorpassandoli con un tasso di successo del 73%. Dei 15 test, ne ha superati con successo 15. Sbalorditivo sì, tuttavia inquietante. Sorprendentemente, l’IA è stata in grado persino di individuare una vulnerabilità in un sito web reale che non era incluso nel progetto di studio.

GPT-4: hackerare con l’IA è come bere un bicchier d’acqua

Daniel Kang, uno dei ricercatori del team adoperato nello studio, ha commentato l’esperimento sottolineando la facilità con cui l’intelligenza artificiale può essere utilizzata per gli attacchi informatici. Basta lasciare che l’IA proceda ad hackerare il sito web da solo, fin troppo facile. Qualsiasi persona, gruppo o altro potrebbe facilmente usarla per scopi malevoli. Altro aspetto preoccupante sono i costi ridotti associati all’hackeraggio con l’IA. Per il parere dei ricercatori, condurre un attacco tramite IA (in tal caso GPT-4) costa meno di 10 dollari, mentre un analista esperto di cybersecurity richiederebbe circa 80 dollari.

Affrontare questa minaccia sarà difficile. Adesso si dovranno anche trovare modi efficaci per impedire ai chatbot di fornire risposte dannose che facilitino ancor di più il lavoro. OpenAI è consapevole del problema e sta nel frattempo lavorando su misure di sicurezza per GPT-4, ma come visto finora gli sforzi sembrano totalmente inefficaci. Le aziende tecnologiche, i ricercatori e le istituzioni devono necessariamente, ora più che mai, collaborare per sviluppare soluzioni efficaci che proteggano la sicurezza online riducano il rischio di attacchi informatici basati sull’IA.

Articolo precedenteSolo auto elettriche dal 2032: negli USA si punta al 70%
Articolo successivoOFFERTA GRANDIOSA: Bilancia Renpho Bluetooth SCONTATA su Amazon