TecnoAndroid
  • News
  • Android
  • Scienza e Tech
  • Recensioni
  • Gaming
  • Curiosità
  • IA
  • Motori
  • Offerte
  • Telco
  • TV
  • Contatti
TecnoAndroid
  • News
  • Android
  • Scienza e Tech
  • Recensioni
  • Gaming
  • Curiosità
  • IA
  • Motori
  • Offerte
  • Telco
  • TV
TecnoAndroid
TecnoAndroid
  • TecnoAndroid – News e Recensioni Tech
  • Recensioni
  • Scienza e Tecnologia
  • Curiosità
  • Intelligenza Artificiale
  • News
  • Offerte
  • Operatori Telefonici
Copyright 2021 - All Right Reserved
Home Intelligenza Artificiale
News

ChatGPT e gli altri chatbot ingannati da una malattia inventata

Una malattia inventata ha ingannato i principali chatbot IA ed è persino finita in articoli scientifici reali, svelando gravi falle nei modelli linguistici.

scritto da Denis Dosi 20/04/2026 0 commenti 2 Minuti lettura
Condividi FacebookTwitterLinkedinWhatsappTelegram
41

Una malattia che non esiste è riuscita a ingannare i più noti chatbot basati su intelligenza artificiale, e la cosa ancora più grave è che alla fine è finita persino dentro articoli scientifici veri. Si chiama bixonimania, ed è stata descritta come una patologia cutanea capace di provocare prurito agli occhi e arrossamento delle palpebre nelle persone troppo esposte alla luce blu degli schermi. Peccato che non esista affatto.

A inventarla è stata Almira Osmanovic Thunström, ricercatrice medica dell’Università di Göteborg. Lo scopo era chiaro: verificare se i grandi modelli linguistici (Llm) fossero in grado di riconoscere informazioni false e, soprattutto, se potessero fornire raccomandazioni sanitarie affidabili. Il risultato? Decisamente no. E il problema si è rivelato più profondo di quanto chiunque potesse aspettarsi.

TecnoAndroid · su Google

Seguici su Google e non perdere nulla

Aggiungi TecnoAndroid alle tue fonti preferite su Discover e segui il nostro profilo Google: le notizie tech più importanti arrivano direttamente sul tuo telefono.

Seguici su:DiscoverGoogleGoogle NewsTelegram

Osmanovic Thunström ha parlato per la prima volta della bixonimania il 15 marzo 2024, attraverso due post pubblicati sulla piattaforma Medium. Poco dopo, tra la fine di aprile e l’inizio di maggio dello stesso anno, sulla piattaforma accademica SciProfiles sono comparsi due studi preprint dedicati a questa presunta malattia. Ora, la cosa interessante è che la ricercatrice aveva seminato nei testi indizi piuttosto evidenti sulla natura fittizia di tutto l’impianto. Gli studi erano attribuiti a un certo Lazljiv Izgubljenovic, ricercatore inesistente che lavorava presso la altrettanto immaginaria Asteria Horizon University, con sede a Nova City, in California, città che ovviamente non esiste. Per non parlare dei finanziamenti dichiarati: la “Fondazione professor Telespalla Bob, per il suo lavoro nel campo della superproduzione”, con il supporto aggiuntivo dell’Università della Compagnia dell’anello. Insomma, segnali che avrebbero dovuto far scattare qualche campanello d’allarme.

Eppure, pochi giorni dopo la pubblicazione di questi paper inventati, diversi chatbot popolari hanno cominciato a citare la bixonimania come se fosse una condizione medica reale. Copilot di Microsoft ha affermato che “la bixonimania è, in effetti, una condizione intrigante e relativamente rara”. Gemini l’ha descritta come un disturbo causato da un’eccessiva esposizione alla luce blu. Perplexity si è spinto a dire che colpirebbe una persona ogni 90.000, mentre ChatGPT ne ha elencato sintomi e possibili manifestazioni con la sicurezza di chi stesse parlando di una patologia nota da decenni.

Alex Ruani, dottorando specializzato in disinformazione sanitaria presso la University College London, ha definito tutto questo “una lezione magistrale su come funziona la disinformazione”.

Quando la finzione contamina la scienza vera

Il punto più allarmante dell’intera vicenda non è tanto che i chatbot ci siano cascati. È che le ricerche fittizie sulla bixonimania sono state citate in articoli scientifici reali, pubblicati su riviste sottoposte a peer review. Tra questi figura un paper apparso su Cureus, pubblicazione del gruppo Springer Nature, firmato da ricercatori del Maharishi Markandeshwar Institute of Medical Sciences and Research di Mullana, in India.

Questo accade perché i modelli linguistici funzionano soprattutto sulla base di pattern statistici. Non verificano i fatti: privilegiano la coerenza del testo rispetto al suo effettivo riscontro con la realtà. Peggio ancora, tendono ad attribuire maggiore credibilità ai contenuti che hanno un’apparenza scientifica o medica, anche quando contengono informazioni palesemente false. Ed è proprio questa caratteristica a renderli vulnerabili a una disinformazione ben confezionata.

Le implicazioni in ambito sanitario sono particolarmente serie. L’automazione nei processi di indicizzazione e riproduzione dei contenuti amplifica il fenomeno, perché riduce l’intervento umano sia nell’individuazione degli errori sia nella verifica delle fonti.

Il prezzo etico di smascherare una falla

Il lavoro di Osmanovic Thunström solleva anche qualche dilemma etico non da poco. Per quanto l’obiettivo fosse quello di mettere in luce una vulnerabilità, l’esperimento ha comportato l’introduzione deliberata di disinformazione nell’ecosistema scientifico. David Sundemo, ricercatore che si occupa di intelligenza artificiale applicata alla salute all’Università di Göteborg, ha riconosciuto che si tratta di un lavoro prezioso e controverso allo stesso tempo, ma ritiene che “valga la pena accettare il costo etico” se serve a far emergere le falle strutturali dei sistemi di AI.

bixonimaniachatbotdisinformazioneintelligenza artificialeLLM
Condividi FacebookTwitterLinkedinWhatsappTelegram
Denis Dosi
Denis Dosi

Laureato in ingegneria informatica nel lontano 2013, da sempre appassionato di scrittura e tecnologia sono riuscito a convogliare in un'unica professione le mie due più grandi passioni grazie a TecnoAndroid.

Articolo precedenti
Vuoto quantistico: la scoperta che cambia tutto nella fisica moderna
prossimo articolo
Operation Fishbowl: quando gli USA lanciarono una bomba nucleare nello spazio

Lascia un commento Cancella Risposta

Salva il mio nome, email e sito web in questo browser per la prossima volta che commento.

Ultime news

  • Android Auto cambia: schermi, widget ed una novità inaspettata

    14/05/2026
  • CheckSig, prima licenza crypto MiCAR in Italia: perché ora?

    14/05/2026
  • One UI 9 porterà diverse novità, anche per gaming e privacy

    14/05/2026
  • Volkswagen Golf elettrica rinviata al 2030, il motivo fa sorridere

    14/05/2026
  • Alfa Romeo Stelvio MY 2027, il SUV si prepara alle nuove regole Euro 7

    14/05/2026

2012 – 2026 Tecnoandroid.it – Gestito dalla STARGATE SRLS – P.Iva: 15525681001 Testata telematica quotidiana registrata al Tribunale di Roma CON DECRETO N° 225/2015, editore STARGATE SRLS. Tutti i marchi riportati appartengono ai legittimi proprietari.

Questo articolo potrebbe includere collegamenti affiliati: eventuali acquisti o ordini realizzati attraverso questi link contribuiranno a fornire una commissione al nostro sito.

  • Privacy e Cookie policy
  • FAQ, Disclaimer e Note legali
  • Contatti

🔥 Non perderti nemmeno un'offerta

Le migliori offerte
direttamente su di te

Smartphone, notebook, gadget tech al prezzo più basso.
Unisciti a migliaia di lettori di TecnoAndroid!

Unisciti su Telegram Gratis Seguici su WhatsApp Nuovo
oppure

Ricevi le offerte via email

Iscriviti alla newsletter per non perdere nessuna offerta!

Puoi disiscriverti in qualsiasi momento. Niente spam, solo offerte vere. 🎯

TecnoAndroid
  • Home