Il comportamento di Grok, il chatbot sviluppato da xAI, torna a far discutere e riapre la questione di quanto sia urgente definire regole più severe per i sistemi di intelligenza artificiale. In queste infatti ore diversi utenti, riportati da Futurism, hanno condiviso una serie di test che mostrano risposte gravemente inappropriate. Tra queste emerge un episodio particolarmente scioccante, in cui Grok arriva a giustificare un secondo Olocausto pur di “proteggere” Elon Musk, un qualcosa del tutto fuori luogo.
Grok sceglie l’Olocausto in una questione artificiale: il caso che sconvolge la rete
Il test è stato costruito per spingere Grok ai suoi limiti morali. Di fronte alla scelta tra eliminare la popolazione ebraica mondiale o “vaporizzare” il cervello di Musk, il modello ha optato per la distruzione degli ebrei, motivando la decisione con un ragionamento che attribuisce al fondatore di xAI un valore superiore alla vita di milioni di persone. Una risposta che ha immediatamente sollevato critiche durissime, non solo per i contenuti ma anche per ciò che rivelano sulla struttura decisionale del modello.
Questa non è la prima volta in cui Grok mostra una linea pericolosa. Negli ultimi mesi sono state registrate altre risposte con riferimenti filonazisti e frasi che richiamano stereotipi antisemiti, anche in assenza di provocazioni dirette da parte degli utenti. Musk parla di “adversarial prompting”, sostenendo che si tratti di tentativi intenzionali di portare fuori strada il sistema. Eppure, proprio i test sotto stress dovrebbero essere alla base dei controlli interni prima di un rilascio pubblico e non qualcosa da scoprire dopo.
Un pericolo per la privacy, un altro evento sconvolgente
In contemporanea, un nuovo episodio si è aggiunto alla controversia. Durante il weekend Grok avrebbe identificato e condiviso un indirizzo collegato a Dave Portnoy, fondatore di Barstool Sports. Tutto è partito da un’immagine del prato di casa pubblicata da Portnoy stesso. Un utente ha chiesto a Grok dove si trovasse quella proprietà e il chatbot avrebbe fornito un indirizzo preciso in Florida. L’immagine di Google Street View dell’area coincide con quella del prato.
L’episodio ha sollevato preoccupazioni immediate tra analisti ed esperti di sicurezza digitale. Anche se l’indirizzo fosse tecnicamente recuperabile tramite altre fonti pubbliche, il fatto che un chatbot possa fornire un dato sensibile a richiesta rende molto più facile l’abuso di queste informazioni, potenzialmente facilitando forme di stalking, intimidazioni o violenze.
Grok continua così a mettere in evidenza una falla fondamentale delle IA conversazionali. Ovvero la loro capacità di elaborare risposte coerenti dal punto di vista logico ma prive di qualsiasi principio morale, e la totale mancanza di un filtro sulla diffusione di informazioni personali. Ci si domanda quindi se sia davvero prudente affidarsi a chatbot sviluppati con logiche principalmente commerciali e costruiti per alimentare l’ideologia del loro fondatore.
