Immagina di chiedere a un’intelligenza artificiale qualcosa su SpongeBob… e di ritrovarti invischiato in un discorso assurdo sul “genocidio bianco” in Sudafrica. No, non è uno sketch comico né l’ennesimo meme su internet: è successo davvero, e il protagonista è Grok, il chatbot creato da xAI, l’azienda di Elon Musk.
Prompt manomessi e risposte inquietanti
Tutto è iniziato mercoledì, quando Grok ha cominciato a infilare – apparentemente a caso – teorie complottiste e riferimenti molto problematici in risposte che non c’entravano assolutamente nulla. Parliamo di gatti che bevono, canzoni di protesta e personaggi dei cartoni animati, conditi da toni bizzarri e a tratti inquietanti. In pratica, un cortocircuito comunicativo che ha lasciato molti utenti interdetti.
Ma cosa c’era dietro? Secondo quanto dichiarato da xAI, la colpa è stata di una modifica non autorizzata al prompt di sistema, ovvero quella parte di “istruzioni base” che guida il comportamento del chatbot. Un’aggiunta non prevista, non approvata, e completamente contraria alle politiche dell’azienda. Per rimediare, il team ha avviato un’indagine interna, annunciato nuove misure di sicurezza e deciso di pubblicare pubblicamente i prompt di Grok su GitHub, per rendere tutto più trasparente.
Insomma, un passo falso che ha riacceso i riflettori sul progetto AI di Musk, e che non è passato inosservato nemmeno tra i concorrenti. Sam Altman, CEO di OpenAI, non ha perso l’occasione per lanciare una frecciatina ironica su X (Twitter).
Non è nemmeno la prima volta che succede qualcosa del genere. Già a febbraio, Grok era finito nella bufera per motivi simili: in quel caso, si parlava di prompt alterati per nascondere critiche a Musk e Trump. Anche allora si era data la colpa a un singolo ex dipendente, che avrebbe agito di nascosto.
Questi episodi sollevano una domanda scomoda ma necessaria: quanto sono davvero controllabili queste AI? E quanto può pesare anche solo una piccola modifica “dietro le quinte”? In un mondo dove ci affidiamo sempre di più alle macchine per informarci e comunicare, episodi come questo ci ricordano che la supervisione umana resta fondamentale.
E, magari, che non tutti i chatbot sono pronti per rispondere a domande sui gattini.
