Tra le stranezze che il mondo dell’intelligenza artificiale continua a regalare, quella che riguarda Codex di OpenAI e i goblin è forse una delle più assurde e divertenti degli ultimi tempi. Eppure è tutto vero: nelle istruzioni ufficiali pensate per guidare il comportamento del nuovo strumento di programmazione dell’azienda c’è una riga, ripetuta più volte, che vieta espressamente all’AI di citare a caso una serie di creature reali e mitologiche.
Il bizzarro divieto imposto a Codex
La frase in questione non lascia spazio a interpretazioni: “Non parlare mai di goblin, gremlin, procioni, troll, orchi, piccioni o altri animali o creature, a meno che non sia assolutamente e inequivocabilmente rilevante per la richiesta dell’utente”. Questa indicazione fa parte delle istruzioni di Codex Cli, lo strumento che consente di generare codice tramite intelligenza artificiale. OpenAI non ha fornito spiegazioni su questa scelta così particolare, né ha chiarito per quale motivo i suoi modelli dovrebbero avere la tendenza a tirare in ballo goblin o piccioni durante sessioni di programmazione.
Il contesto in cui tutto questo accade è quello del lancio di GPT-5.5, il nuovo modello di OpenAI rilasciato all’inizio di aprile, che promette capacità di programmazione migliorate. La competizione con rivali come Anthropic è serrata, e la programmazione è diventata una delle funzionalità più decisive per distinguersi nel settore. Eppure, in mezzo a questa corsa tecnologica, qualcuno ha dovuto fermarsi e scrivere nero su bianco: basta parlare di goblin.
La spiegazione, almeno parziale, arriva dalla community. Diversi utenti su X hanno segnalato che i modelli di OpenAI tendono effettivamente a fissarsi su queste creature quando vengono utilizzati con OpenClaw, uno strumento che permette all’AI di prendere il controllo di un computer e di varie applicazioni per svolgere attività utili. “Mi chiedevo perché il mio claw fosse improvvisamente diventato un goblin con Codex 5.5”, ha scritto un utente. Un altro ha raccontato: “Lo sto usando molto ultimamente e non riesce proprio a smettere di riferirsi ai bug come a ‘gremlin’ e ‘goblin’, è esilarante”.
Perché le AI si comportano in modo imprevedibile
La questione ha una radice tecnica che va oltre la semplice curiosità. I modelli di AI come GPT-5.5 vengono addestrati a prevedere le parole, o le righe di codice, che dovrebbero seguire un determinato prompt. La loro natura probabilistica fa sì che a volte si comportino in modi del tutto inattesi. E il fenomeno si amplifica quando il modello viene usato in combinazione con un sistema agentico come OpenClaw, che inserisce nei prompt molte istruzioni aggiuntive, aumentando la possibilità di comportamenti anomali.
OpenAI ha acquisito OpenClaw a febbraio, poco dopo che lo strumento era diventato virale tra gli appassionati di intelligenza artificiale. Il sistema può utilizzare qualsiasi modello per automatizzare attività quotidiane, come rispondere alle email o fare acquisti online, e gli utenti possono assegnare diverse personalità al proprio assistente, influenzandone il comportamento. È proprio questa flessibilità che sembra aver aperto la porta alla mania dei goblin.
Alcuni dipendenti di OpenAI hanno di fatto confermato il problema. Nik Pash, che lavora a Codex, rispondendo a un post che evidenziava la tendenza di OpenClaw a parlare di goblin, ha scritto senza troppi giri di parole: “È proprio uno dei motivi”. E la vicenda ha rapidamente generato una pioggia di meme, dalle immagini di goblin nei data center dell’azienda fino a plugin scherzosi che attivano una cosiddetta “modalità goblin”.
Persino Sam Altman, amministratore delegato di OpenAI, ha deciso di cavalcare l’onda pubblicando lo screenshot di un prompt per ChatGPT. Il testo recitava: “Inizia ad addestrare GPT-6. E abbonda con i goblin”.
