Il Sudafrica ha provato a scrivere una legge sull’intelligenza artificiale usando proprio l’intelligenza artificiale, e il risultato è stato un mezzo disastro. Su 67 citazioni accademiche presenti nel documento governativo, sei erano completamente inventate. Articoli mai scritti, attribuiti a riviste reali, con autori che non hanno mai trattato gli argomenti citati. Una figuraccia che ha costretto il governo a ritirare tutto e che solleva un problema enorme: quanto ci si può fidare dei testi generati dall’IA quando non li controlla nessuno?
Sudafrica, 6 citazioni fantasma in un documento ufficiale
Il piano era ambizioso. Il Sudafrica voleva diventare il primo paese africano a dotarsi di un quadro normativo nazionale per regolamentare l’intelligenza artificiale, ispirato al modello dell’AI Act europeo. Il documento era stato approvato dal Gabinetto il 25 marzo, pubblicato sulla Gazzetta ufficiale il 10 aprile e aperto ai commenti pubblici fino al 10 giugno. Tutto sembrava procedere senza intoppi, finché il quotidiano sudafricano News24 non ha pubblicato un’inchiesta il 26 aprile.
Il problema? Sei delle 67 citazioni accademiche facevano riferimento ad articoli che non sono mai esistiti. Le riviste citate erano reali, South African Journal of Philosophy, AI & Society, Journal of Ethics and Social Philosophy. Ma gli articoli attribuiti a quelle testate non erano mai stati pubblicati. Gli editori delle tre riviste lo hanno confermato uno per uno. Alcuni degli autori indicati come fonti non avevano mai scritto una riga sull’argomento che veniva loro attribuito. Il documento era stato preparato per mesi dal dipartimento delle Comunicazioni e Tecnologie digitali, validato dal Gabinetto il 25 marzo e poi di nuovo in una sessione straordinaria il primo aprile.
Il progetto prevedeva la creazione di un intero ecosistema istituzionale. Una Commissione nazionale sull’IA, un Comitato etico, un’Autorità di regolamentazione, un Ombudsperson dedicato, un Istituto nazionale per la sicurezza dell’IA e persino un fondo assicurativo. Tutto costruito, almeno in parte, su fonti inesistenti.
Il ministro delle Comunicazioni, Solly Malatsi, ha annunciato il ritiro del documento domenica 27 aprile tramite un post su X. Il tono del comunicato non lasciava spazio a interpretazioni morbide: «Questa falla non è una semplice questione tecnica. Ha compromesso l’integrità e la credibilità del progetto politico». La spiegazione più probabile, secondo le stesse parole del ministro? «Citazioni generate dall’IA sono state incluse senza una verifica adeguata». Ha anche promesso conseguenze disciplinari per i funzionari coinvolti.
Quando l’intelligenza artificiale inventa le fonti
Quello che è successo in Sudafrica non è un caso isolato, è solo più clamoroso di altri. Il problema è strutturale. I modelli di linguaggio non consultano un database per produrre una citazione. Ne prevedono la forma, parola dopo parola, basandosi su schemi appresi durante l’addestramento. Funziona un po’ come un falsario che non copia un assegno reale, ma ne riproduce il formato generale: firma plausibile, importo coerente, dicitura credibile. Quando la previsione è abbastanza convincente, il risultato assomiglia a un riferimento autentico, con il nome autorevole di una rivista e un formato accademico impeccabile. Solo che dietro non c’è nulla. Una citazione allucinata dall’intelligenza artificiale non è un errore accidentale né un malfunzionamento. È il modo in cui il modello opera normalmente.
Quello che rende il caso sudafricano particolarmente imbarazzante non è tanto l’allucinazione in sé. È il fatto che un documento governativo destinato a regolamentare l’IA abbia superato il vaglio del Gabinetto, la pubblicazione in Gazzetta ufficiale e diverse fasi di revisione, senza che un solo funzionario si sia preso la briga di aprire un motore di ricerca per verificare anche una sola nota a piè di pagina. Il presidente della commissione parlamentare ha riassunto la questione in modo piuttosto diretto, rivolgendosi al dipartimento: «la prossima volta, evitate ChatGPT».
