Una malattia che non esiste è riuscita a ingannare i più noti chatbot basati su intelligenza artificiale, e la cosa ancora più grave è che alla fine è finita persino dentro articoli scientifici veri. Si chiama bixonimania, ed è stata descritta come una patologia cutanea capace di provocare prurito agli occhi e arrossamento delle palpebre nelle persone troppo esposte alla luce blu degli schermi. Peccato che non esista affatto.
A inventarla è stata Almira Osmanovic Thunström, ricercatrice medica dell’Università di Göteborg. Lo scopo era chiaro: verificare se i grandi modelli linguistici (Llm) fossero in grado di riconoscere informazioni false e, soprattutto, se potessero fornire raccomandazioni sanitarie affidabili. Il risultato? Decisamente no. E il problema si è rivelato più profondo di quanto chiunque potesse aspettarsi.
Osmanovic Thunström ha parlato per la prima volta della bixonimania il 15 marzo 2024, attraverso due post pubblicati sulla piattaforma Medium. Poco dopo, tra la fine di aprile e l’inizio di maggio dello stesso anno, sulla piattaforma accademica SciProfiles sono comparsi due studi preprint dedicati a questa presunta malattia. Ora, la cosa interessante è che la ricercatrice aveva seminato nei testi indizi piuttosto evidenti sulla natura fittizia di tutto l’impianto. Gli studi erano attribuiti a un certo Lazljiv Izgubljenovic, ricercatore inesistente che lavorava presso la altrettanto immaginaria Asteria Horizon University, con sede a Nova City, in California, città che ovviamente non esiste. Per non parlare dei finanziamenti dichiarati: la “Fondazione professor Telespalla Bob, per il suo lavoro nel campo della superproduzione”, con il supporto aggiuntivo dell’Università della Compagnia dell’anello. Insomma, segnali che avrebbero dovuto far scattare qualche campanello d’allarme.
Eppure, pochi giorni dopo la pubblicazione di questi paper inventati, diversi chatbot popolari hanno cominciato a citare la bixonimania come se fosse una condizione medica reale. Copilot di Microsoft ha affermato che “la bixonimania è, in effetti, una condizione intrigante e relativamente rara”. Gemini l’ha descritta come un disturbo causato da un’eccessiva esposizione alla luce blu. Perplexity si è spinto a dire che colpirebbe una persona ogni 90.000, mentre ChatGPT ne ha elencato sintomi e possibili manifestazioni con la sicurezza di chi stesse parlando di una patologia nota da decenni.
Alex Ruani, dottorando specializzato in disinformazione sanitaria presso la University College London, ha definito tutto questo “una lezione magistrale su come funziona la disinformazione”.
Quando la finzione contamina la scienza vera
Il punto più allarmante dell’intera vicenda non è tanto che i chatbot ci siano cascati. È che le ricerche fittizie sulla bixonimania sono state citate in articoli scientifici reali, pubblicati su riviste sottoposte a peer review. Tra questi figura un paper apparso su Cureus, pubblicazione del gruppo Springer Nature, firmato da ricercatori del Maharishi Markandeshwar Institute of Medical Sciences and Research di Mullana, in India.
Questo accade perché i modelli linguistici funzionano soprattutto sulla base di pattern statistici. Non verificano i fatti: privilegiano la coerenza del testo rispetto al suo effettivo riscontro con la realtà. Peggio ancora, tendono ad attribuire maggiore credibilità ai contenuti che hanno un’apparenza scientifica o medica, anche quando contengono informazioni palesemente false. Ed è proprio questa caratteristica a renderli vulnerabili a una disinformazione ben confezionata.
Le implicazioni in ambito sanitario sono particolarmente serie. L’automazione nei processi di indicizzazione e riproduzione dei contenuti amplifica il fenomeno, perché riduce l’intervento umano sia nell’individuazione degli errori sia nella verifica delle fonti.
Il prezzo etico di smascherare una falla
Il lavoro di Osmanovic Thunström solleva anche qualche dilemma etico non da poco. Per quanto l’obiettivo fosse quello di mettere in luce una vulnerabilità, l’esperimento ha comportato l’introduzione deliberata di disinformazione nell’ecosistema scientifico. David Sundemo, ricercatore che si occupa di intelligenza artificiale applicata alla salute all’Università di Göteborg, ha riconosciuto che si tratta di un lavoro prezioso e controverso allo stesso tempo, ma ritiene che “valga la pena accettare il costo etico” se serve a far emergere le falle strutturali dei sistemi di AI.
