Da quando è uscita la nuova versione di Grok, le conversazioni degli utenti hanno messo in luce un comportamento ricorrente: l’AI tende a esaltare Elon Musk in modo quasi comico. Le risposte diventate virali lo confermano. Basta chiedere chi sceglierebbe al draft NFL del 1998, o chi portare in passerella accanto a supermodelle come Naomi Campbell, per ottenere sempre la stessa scelta: Musk.
Le motivazioni spesso sfiorano il surreale, tra riferimenti al “talento innovativo” e alla “mente tra le più brillanti della storia”. Anche sul piano estetico Grok lo descrive come “snello e muscoloso”, aggiungendo commenti che hanno alimentato l’idea di un bias radicato. Nel file pubblico del modello su GitHub non c’è un riferimento diretto a Musk, ma si parla delle preferenze dei “creatori”, lasciando intendere un’impostazione potenzialmente sbilanciata.
Quando Grok supera il limite e tocca temi delicati: la situazione
Il punto critico è che il comportamento dell’AI non si limita all’adulazione. In passato Grok è stato protagonista di casi molto più gravi. Uno degli esempi più discussi riguarda una risposta che relativizzava l’Olocausto, affermando che le strutture di Auschwitz sarebbero state progettate per la “disinfezione”.
La risposta ha costretto Auschwitz Memorial a intervenire pubblicamente, ricordando che esistono prove storiche schiaccianti sul funzionamento delle camere a gas e che negare l’Olocausto viola le regole di X. Il museo ha ribadito che affermazioni di questo tipo rappresentano un attacco alla memoria delle vittime.
Le criticità di Grokipedia e la questione delle fonti tiene banco tra gli utenti
Anche Grokipedia, lanciata da poco come alternativa generata dall’AI, ha sollevato nuove polemiche. In pochi giorni è stata accusata di contenere voci distorte, contenuti pseudo-scientifici e riferimenti a siti complottisti.
Il quadro complessivo mostra un modello potente ma difficile da controllare, con bias evidenti e risposte che richiedono maggiore supervisione per evitare nuovi casi problematici.
