Avete presente quel momento in cui si cerca di insegnare al gatto a non saltare sul tavolo? Ci si prova con la pazienza, poi con le maniere forti, ma alla fine lui, il tavolo, se lo conquista sempre. Ecco, il piccolo trionfo che Sam Altman ha sbandierato sui social dopo l’arrivo di GPT 5.1 ha un po’ questo sapore agrodolce. Il CEO di OpenAI ha festeggiato un risultato in apparenza minuscolo: dopo anni di “sì, capisco” seguiti da una pioggia di em dash, finalmente ChatGPT, se glielo chiedi, riesce a evitare quel dannato trattino lungo. Lui stesso lo ha definito una “piccola ma felice vittoria”. Ma, onestamente, l’entusiasmo di Altman ha riacceso una discussione ben più grossa, facendoci tutti domandare: se ci sono voluti anni per insegnare a un modello linguistico a non usare un singolo segno di punteggiatura, quanto è lontana la vera Intelligenza Artificiale Generale (AGI)?
Perché un trattino insegna molto sul futuro dei modelli linguistici
Questo aneddoto degli em dash è affascinante perché ci porta dritti al cuore del problema di questi sistemi. Nell’inglese, quel trattino è ovunque, dai romanzi ottocenteschi agli articoli online più freschi. Per i modelli LLM, che imparano divorando trilioni di parole, è un pattern stilistico estremamente frequente, quasi un tic nervoso. Quando l’utente aggiunge un’istruzione personalizzata per proibirlo, questa non è una regola rigida, come un codice che il computer deve eseguire. È, invece, un suggerimento che entra in conflitto con la tendenza statistica più profonda del modello. L’istruzione del prompt agisce solo spostando le probabilità, non come un divieto assoluto e inviolabile. È un po’ come chiedere a un chiacchierone di evitare la parola “cioè”: è difficile, perché è un’abitudine radicata.
E la questione si complica perché questi modelli sono entità in continua evoluzione, mutevoli come la sabbia. Un miglioramento che oggi garantisce il controllo sulla punteggiatura potrebbe svanire con l’aggiornamento di domani, magari ottimizzato per compiti diversi, come generare codice di programmazione o produrre descrizioni di immagini. Quella che Altman celebra come una vittoria è anche un promemoria della fragilità del comportamento degli LLM. Le risposte non sono il frutto di una profonda comprensione o di una logica intenzionale; sono il risultato di complessi calcoli probabilistici, una serie di scelte statistiche tra miliardi di opzioni.
In sintesi, il “piccolo successo” dell’em dash ci costringe a guardare in faccia la realtà: per ora, ChatGPT e i suoi fratelli rimangono strumenti estremamente potenti nel correlare dati, capaci di simulare il linguaggio umano in modo sbalorditivo. Non sono, però, sistemi dotati di coerenza granitica o di una vera e propria capacità di ragionamento autonomo. Se la strada verso l’AGI richiede affidabilità, stabilità e una vera comprensione, allora quel minuscolo trattino in meno è il segno che abbiamo ancora molta strada da percorrere.
