Si parla sempre di più dei vantaggi che l’intelligenza artificiale mette a disposizione degli utenti. Come ben sappiamo, i chatbot basati sull’AI consentono ormai di portare a termine qualunque compito in pochissimi secondi. Niente più tempo da perdere dunque per generare un’immagine, riassumere un testo, scrivere una mail formale e molto altro. Per tutto ciò l’utente può fare affidamento sull’intelligenza artificiale e dedicare il tempo che fino a poco tempo fa veniva richiesto in tali contesti, per altro. Nonostante ciò, a volte l’uso che viene fatto di chatbot come ChatGPT non è sempre corretto.
Una recente notizia diffusa sul web rende noto che un utente avrebbe sviluppato una rara sindrome denominata bromismo dopo aver chiesto un consiglio al chatbot. Scopriamo insieme nel corso di questo nuovo articolo maggiori informazioni in merito a quanto accaduto.
ChatGPT: quando il chatbot viene utilizzato in modo errato
Chi non si è almeno una volta rivolto a chatbot per generare un’immagine, riassumere un testo, scrivere un email o portare a termine un progetto di lavoro entro i termini prestabiliti? Comuni azioni che sempre più utenti decidono di portare a termine chiedendo l’aiuto dell’intelligenza artificiale.
Nessun problema finché ChatGPT viene utilizzato per semplificare il lavoro. I problemi non mancano invece quando si decide di affidarsi all’AI per altri scopi. Secondo quando diffuso nelle scorse ore, un utente avrebbe deciso di rivolgersi a ChatGPT per eliminare il sale dalla propria dieta. A tale richiesta il chatbot ha risposto consigliando una variazione nella dieta e, nello specifico, consigliando di sostituirlo con il bromuro di sodio.
La conseguenza per l’utente è stata spiacevole dato che l’utilizzo costante di questa sostanza l’ha portato a sviluppare una sindrome psichiatrica. Tutto ciò, dunque, deve far riflettere. ChatGPT e altri chatbot basati sull’AI non devono essere impiegati nell’ambito della medicina chiedendo consigli qualunque.
