News

META: è nato il nuovo chatbot Blenderbot 3, ma sta già diventando razzista

Proprio quando pensi che la vita online non possa peggiorare di quanto non sia già, Meta interviene per dimostrare che hai torto.

Il nuovo chatbot AI BlenderBot 3 è stato rilasciato negli Stati Uniti pochi giorni fa e sta già facendo una serie di false affermazioni basate sulle interazioni che ha avuto gli umani online. Alcuni dei più eclatanti tra questi includono affermazioni che Donald Trump ha vinto le elezioni presidenziali statunitensi del 2020 ed è attualmente presidente, teorie del complotto antisemita e commenti che richiamano Facebook per tutte le sue “notizie false”.

BlenderBot 3 di Meta può cercare in Internet per parlare con gli umani di quasi tutto, a differenza delle versioni precedenti. Può fare tutto questo facendo affidamento sulle abilità fornite dalle versioni precedenti di BlenderBot: sono state aggiunte funzioni che emulano la personalità, l’empatia, la conoscenza e la capacità di avere memoria a lungo termine relativa alle conversazioni che ha avuto.

Come funzionano i chatbot

I chatbot imparano a interagire parlando con il pubblico, quindi Meta incoraggia gli adulti a parlarci per aiutarlo a imparare ad avere conversazioni naturali su un’ampia gamma di argomenti. Ma ciò significa che il chatbot può anche apprendere false notizie. Secondo Bloomberg, ha descritto il CEO

di Meta Mark Zuckerberg come “troppo inquietante e manipolatore” in una conversazione con un giornalista di Insider. Ha detto a un giornalista del Wall Street Journal che Trumpsarà sempre” presidente e ha propagandato la teoria del complotto antisemita secondo cui “non era plausibile” che gli ebrei controllassero l’economia.

Questa non è la prima volta che un chatbot ha fatto affermazioni simili. A luglio, Google ha licenziato un ingegnere perchè aveva affermato che il chatbot LaMDA era diventato senziente.

Ma la verità è che era diventato razzista e sessista, due caratteristiche indubbiamente umane. E nel 2016, un chatbot Microsoft chiamato Tay è stato messo offline entro 48 ore dopo aver iniziato a lodare Adolf Hitler.

Condividi
Pubblicato da
Simone Paciocco