
OpenAI ChatGPT
ChatGPT è finito al centro di un’indagine dopo che alcuni utenti hanno sfruttato il modello linguistico per elaborare dati di passaporti falsi e aggirare i controlli automatici di siti governativi. L’inchiesta è partita da 404 Media, che ha scoperto una serie di conversazioni in cui venivano richiesti suggerimenti su come compilare numeri identificativi validi per documenti contraffatti.
Come viene aggirata la verifica automatica dei documenti
Secondo quanto riportato, alcuni utenti sono riusciti a indurre ChatGPT a generare dati compatibili con i sistemi di validazione ufficiali, come quelli basati su formule di controllo (checksum) utilizzate nei numeri di passaporto o nei codici identificativi nazionali. In pratica, il sistema viene guidato a produrre stringhe numeriche formalmente corrette, capaci di superare i controlli automatici su portali pubblici o piattaforme online.
In alcuni casi, gli utenti chiedevano espressamente al chatbot di simulare l’emissione di un passaporto di uno specifico paese, ricevendo come risposta dati coerenti con il formato reale. Questo non equivale alla creazione di un documento fisico, ma potrebbe rappresentare un primo passo per tentativi di frode digitale o per la compilazione di moduli sensibili.
OpenAI interviene per bloccare gli abusi
Di fronte alla segnalazione di 404 Media, OpenAI ha avviato un’indagine interna, dichiarando di aver già preso misure per evitare che ChatGPT venga utilizzato a scopi illeciti. L’azienda ha aggiornato i filtri di sicurezza del sistema, introducendo nuove restrizioni per bloccare richieste che coinvolgono documenti ufficiali o numeri identificativi.
OpenAI ha ribadito che l’utilizzo dei suoi modelli per attività illegali viola chiaramente i termini di servizio, e che continuerà a collaborare con le autorità per individuare e fermare ogni uso improprio. L’azienda ha anche ricordato che i modelli linguistici non sono stati progettati per generare dati reali o ufficiali, ma per assistere in compiti generali di scrittura, programmazione e conversazione.
I rischi legati all’uso improprio dell’IA
L’episodio riapre il dibattito sui rischi connessi all’uso delle intelligenze artificiali generative, soprattutto quando vengono utilizzate per aggirare controlli o produrre informazioni sensibili. Anche se ChatGPT non genera documenti ufficiali, la capacità di creare dati compatibili con i formati reali può facilitare truffe o accessi non autorizzati a servizi digitali.
L’abuso di questi strumenti pone nuove sfide per enti pubblici e aziende private, che dovranno rafforzare i propri sistemi di verifica e integrare controlli avanzati per distinguere tra dati autentici e generati artificialmente.
