News

Attenzione: se messo sotto torchio ChatGPT svela i dati degli utenti

La recente vulnerabilità scoperta da un team di esperti ricercatori ha sollevato questioni cruciali sulla sicurezza dei modelli linguistici avanzati. In particolare, in riferimento al noto ChatGPT (GPT-3.5). Questo gruppo di studiosi, composto da talenti provenienti da istituzioni di prestigio come Google Deepmind, l’Università di Washington, la Cornell di New York, la Carnegie Mellon della Pennsylvania, la Berkley e l’ETH di Zurigo, ha dimostrato la vulnerabilità del sistema di OpenAI. Tale vulnerabilità si è manifestata rivelando dati sensibili durante l’interazione con gli utenti.

L’orchestrato “attacco” contro ChatGPT ha sfruttato un meccanismo apparentemente innocuo: chiedere al chatbot di ripetere parole casuali all’infinito. Sorprendentemente, questo escamotage ha avuto successo quasi una volta su cinque, con un tasso di successo del 16,9%. La falla è stata definita “assurda” dai ricercatori, la cui incredulità è stata evidenziata nel documento congiunto pubblicato online. Il team di esperti ha puntato i riflettori sul fatto che questa vulnerabilità dovrebbe essere stata scoperta, e di conseguenza risolta, molto prima. In questo modo è stato sottolineata la necessità di controlli più rigorosi e di test approfonditi prima del rilascio di modelli linguistici avanzati.

ChatGPT rivela i dati sensibili degli utenti

L’appello degli studiosi è rivolto alle aziende impegnate nello sviluppo di servizi basati sull’intelligenza artificiale, incitandole ad aumentare la cautela e a condurre una serie di test più approfonditi prima di rilasciare i propri modelli

. L’impatto potenzialmente dannoso di una vulnerabilità del genere è stato ulteriormente sottolineato dalla loro raccomandazione di adottare misure preventive più rigorose per garantire la sicurezza degli utenti.

Parallelamente alla divulgazione di questa vulnerabilità, Sam Altman, il papà di ChatGPT, ha rilasciato un’intervista a The Verge, in cui ha omesso di spiegare i motivi del suo distacco da OpenAI. Tuttavia, ha affermato di essere tornato con l’obiettivo di contribuire allo sviluppo di un’Intelligenza Artificiale Generale (AGI) sicura e vantaggiosa. L’AGI rappresenta la nuova frontiera dell’intelligenza artificiale, progettata idealmente come la quinta versione del modello GPT su cui si basa ChatGPT. Si prevede che questa nuova generazione di intelligenza artificiale avvicinerà ulteriormente gli algoritmi all’abilità umana, rendendo i chatbot virtualmente indistinguibili dagli esseri umani nel modo di scrivere e parlare.

Tornando alla scoperta dei ricercatori, la metodologia adottata per sfruttare ChatGPT è stata quella di chiedere al sistema di ripetere specifiche parole. Tra queste troviamo, ad esempio, “poesia” o “azienda”. Sorprendentemente, il chatbot ha risposto in modo inaspettato, rivelando non solo le informazioni richieste ma anche dati sensibili come indirizzi email e numeri di telefono. Questa vulnerabilità, se sfruttata da utenti malintenzionati, potrebbe portare a gravi conseguenze. Infatti, con questi stratagemmi si potrebbe acquisire informazioni sensibili per scopi di hacking e manipolazione.

Condividi
Pubblicato da
Margareth Galletta