Ad
mercoledì, Novembre 12, 2025

ChatGPT funziona meglio se si è scortesi?

Secondo alcuni dati recenti, sembra che ChatGPT fornisca risposte più accurate a chi lo tratta male. Cosa succede?

2 Minuti lettura
ChatGPT

L’interazione tra esseri umani e intelligenza artificiale non è solo una questione di tecnologia. Riguarda anche il linguaggio. Lo dimostra un recente esperimento condotto su ChatGPT, il chatbot di OpenAI. Quest’ultimo ha evidenziato un legame inaspettato tra il tono delle richieste e la precisione delle risposte. Secondo i ricercatori, la cortesia non sempre paga. In alcuni casi, un linguaggio scortese sembra produrre risultati più accurati. Per comprendere il fenomeno, gli studiosi hanno predisposto una serie di cinquanta domande a scelta multipla, distribuite tra varie aree di conoscenza. Ogni domanda è stata riformulata in cinque versioni, dal tono molto cortese a quello molto scortese, per un totale di 250 prompt destinati a ChatGPT-4o. Il confronto ha prodotto un esito curioso: le richieste più gentili ottenevano in media l’80,8% di risposte corrette. Mentre quelle più aggressive raggiungevano un 84,8%.

ChatGPT risponde più accuratamente a chi è scortese?

La spiegazione potrebbe risiedere nella struttura linguistica dei messaggi. I toni cortesi, arricchiti da formule come “per favore” o “grazie”, aggiungono parole non strettamente funzionali alla richiesta. Le quali possono rendere il prompt più lungo e complesso da interpretare per l’algoritmo. Al contrario, un linguaggio diretto, privo di elementi accessori, ridurrebbe l’ambiguità e faciliterebbe la comprensione. Eppure, gli autori dell’indagine invitano alla prudenza: il campione è ristretto e l’esperimento, pur significativo, non può essere generalizzato. Inoltre, l’attuale GPT-5 potrebbe reagire in modo diverso, essendo un’evoluzione del sistema.

Oltre al piano tecnico, i ricercatori sollevano un tema etico e sociale. Usare toni aggressivi o denigratori con un chatbot può sembrare irrilevante, ma nel lungo periodo rischia di normalizzare modelli comunicativi tossici. I quali potrebbero essere assimilati e riprodotti dall’intelligenza artificiale. La raccomandazione, dunque, è quella di adottare una via di mezzo: un linguaggio sobrio e privo di eccessi. L’esperimento offre uno spunto per riflettere su come ci rapportiamo alle macchine. Se la cortesia resta un valore sociale, nel dialogo con l’AI conta soprattutto la trasparenza comunicativa.

Google News Rimani aggiornato seguendoci su Google News!