ChatGPT, secondo molti il chatbot di OpenAI sta perdendo colpi

Recentemente, la comunità di programmatori ha sollevato dubbi sulla performance di ChatGPT, il chatbot di OpenAI. Gli utenti hanno espresso preoccupazioni riguardo a una presunta diminuzione della qualità delle risposte fornite dal bot, soprattutto dopo l’introduzione di GPT-4. Alcuni utenti hanno paragonato l’esperienza a quella di passare da una Ferrari a un vecchio pick-up scassato.

ChatGPT: le voci in circolazione sono vere?

Peter Yang, responsabile di Roblox, ha espresso la sua preoccupazione sui social media, suggerendo che OpenAI potrebbe aver sacrificato la qualità per risparmiare sui costi. Un documento pubblicato dai ricercatori della Stanford University e della UC Berkeley ha confermato queste preoccupazioni, rilevando che le prestazioni dei modelli di intelligenza artificiale GPT-3.5 e GPT-4 sono variate notevolmente.

ChatGPT non è un’intelligenza nel senso umano del termine. Non ha contatto con la realtà e produce risposte che sembrano sensate basandosi su ciò che ha appreso da Internet. Non può diventare “più stupido”, ma può sembrare tale se la qualità delle sue risposte diminuisce. L’ultima versione del chatbot, utilizza un approccio chiamato Mixture-of-Experts (MoE), che implica l’uso di un gruppo di 16 IA più piccole, ciascuna addestrata su aree tematiche specifiche. Quando un utente fa una domanda, il sistema dovrebbe essere in grado di individuare quali modelli sono più adatti per generare una risposta. Tuttavia, questo approccio potrebbe essere alla base del problema.

Nonostante le critiche, OpenAI ha respinto l’ipotesi di un degrado delle capacità di GPT-4. Peter Welinder, vicepresidente del prodotto di OpenAI, ha affermato su Twitter che ogni nuova versione è più intelligente della precedente. Tuttavia, molti esperti di intelligenza artificiale continuano a non concordare con questa affermazione.

Ricordiamo che a percezione di una diminuzione della qualità delle risposte di ChatGPT potrebbe essere dovuta a una serie di fattori, tra cui l’ambiguità del contesto della domanda, l’addestramento limitato del bot, errori di comprensione e la sensibilità alla sequenza delle domande.

Articolo precedenteAsteroide contro la Terra, tutta la verità sulla donna colpita dal corpo celeste
Articolo successivoAlfa Romeo, ondata di nuove auto elettriche in arrivo