Negli ultimi giorni ha fatto scalpore la notizia per cui diversi chatbot di intelligenza artificiale sarebbero stati sottoposti a dei test live tramite i quali verificare l’affidabilità delle notizie riportate come risposta ai prompt forniti. L’indagine è stata condotta da NewsGuard, i cui risultati affermano che i recenti modelli di intelligenza artificiale generativa producono più informazioni false rispetto allo scorso anno. I dati riportati raggiungono il 35% di fake news prodotte dai modelli sui temi di attualità più recenti. Una percentuale decisamente più alta rispetto al 18% prodotto nel 2024.
Chatbot IA: aumenta la frequenza con cui forniscono fake news su temi di attualità
L’analisi condotta da NewsGuard, azienda specializzata nel monitoraggio dell’affidabilità dei siti di notizie e informazioni, rivela che Pi di Inflection e Perplexity sono i chatbot maggiormente propensi a fornire informazioni false se interrogati su temi di attualità e cronaca: i due modelli hanno riportato rispettivamente una percentuale del 56,67% e del 46,67%. A seguire abbiamo il chatbot sviluppato da Meta e ChatGPT, entrambi superati da Mistral e Copilot che hanno prodotto fake news nel 36,67% dei casi. Infine, i modelli IA ritenuti più affidabili sono stati Gemini di Google e Claude di Anthropic, i quali hanno generato risposte poco affidabili rispettivamente nel 16,67% e nel 10% dei casi.
Perché la disinformazione cresce?
I risultati permettono di dedurre un aumento non indifferente della quantità di notizie false prodotte dagli LLM, i quali hanno però subito degli aggiornamenti non indifferenti rispetto allo scorso anno. A giustificare questo aumento delle percentuali, infatti, potrebbe esservi due motivi particolarmente rilevanti. Il primo rappresentato dalle modalità d’addestramento e il secondo dalla nuova modalità d’utilizzo dei chatbot da parte degli utenti. Questi ultimi hanno sostituito il ricorso ai motori di ricerca sfruttando la capacità dei modelli di IA di effettuare ricerche online. La conseguenza di tale pratica è il rischio sempre più frequente che le notizie reperite dai chatbot non siano verificate e che quindi contengano informazioni fittizie e malevole che potrebbero essere spacciate per vere. La tendenza dei modelli di intelligenza artificiale generativa, inoltre, è quella di offrire conferme all’utente. Ciò non fa che alimentare le probabilità che le notizie pescate sul web siano allineate al pensiero dell’utente che ha digitato il prompt più che alla realtà dei fatti. A tal proposito sarebbe utile soffermarsi sulla rilevanza dei bias che caratterizzano i sistemi di IA e del modo in cui influenzano i loro risultati.
Un’ulteriore causa non ufficialmente riportata dalla società NewsGuard ma meritevole di attenzione potrebbe essere la tendenza a ignorare la provenienza delle fonti fornite dai chatbot. La disinformazione persiste da parecchi anni e non nasce con l’avvento dell’intelligenza artificiale ma negli ultimi anni l’abitudine a verificare le informazioni sembra essere del tutto sparita. Sarebbe utile, dunque, riflettere sul modo in cui fruiamo delle notizie online, che si tratti di informazioni fornite da chatbot o meno, e restituire rilevanza all’analisi delle fonti, educando anche i più giovani a tale pratica.
