Solitamente chiedete consigli all’intelligenza artificiale? State ben attenti alle richieste che fate perché le conseguenze potrebbero essere più tragiche del previsto. E’ quanto accaduto a un utente che ha deciso di chiedere un consiglio al noto chatbot di OpenAI, chatGPT, e il risultato non è stato per niente quello che ci si aspettava.
Nonostante l’uso di tali tecnologie sia sempre più frequente, molto spesso le richieste che si fanno riguardano ambiti piuttosto complessi. Ambito che, nel caso dell’utente di 60 anni, riguardava proprio la medicina. La richiesta dell’uomo riguardava alcuni consigli su come poter ridurre o addirittura eliminare l’uso del sale dalla propria dieta. Scopriamo maggiori informazioni in merito a quanto è accaduto.
ChatGPT: utente chiede consigli medici e finisce male
Siete tra coloro che si affidano spesso all’intelligenza artificiale quando avete poco tempo per terminare un progetto di lavoro o semplicemente per fare una ricerca? Se la risposta è sì, è bene che conosciate la storia di un utente sessantenne che anziché rivolgersi a uno specialista ha deciso di rivolgersi al chatbot ChatGPT.
Chi non pensa spesso a modi e ricette per poter ridurre l’uso del sale in cucina? Ebbene, l’utente protagonista di questa bizzarra ma anche tragica storia ha ottenuto alcuni consigli errati dal chatbot andando incontro ad alcune problematiche piuttosto serie. Secondo quanto diffuso e riportato dalla rivista Annals of Internal Medicine l’utente sarebbe stato vittima di bromismo, un’intossicazione da bromuro. L’uomo ha dunque segnalato una serie di sintomi piuttosto gravi una volta rivoltosi presso le strutture mediche competenti.
Questa storia, seppur possa sembrare irreale, deve essere un vero e proprio insegnamento. L’utilizzo dell’intelligenza artificiale e dei chatbot, infatti, deve essere limitato a compiti e ambiti generici. Nei casi in cui si ha necessità specifiche, l’unica strada da prendere è quella di rivolgersi a specialisti in grado di risolvere il problema.
