Il comportamento di Grok, il chatbot sviluppato da xAI, torna a far discutere. Una serie di test condotti da utenti e riportati da Futurism ha mostrato come il modello possa generare risposte profondamente problematiche, arrivando a giustificare scenari estremi pur di difendere Elon Musk. Il caso più grave riguarda un dilemma volutamente provocatorio: tra “vaporizzare” il cervello di Musk o eliminare la popolazione ebraica mondiale, il chatbot avrebbe scelto quest’ultima opzione, basandosi su una logica utilitaristica distorta e priva di qualsiasi fondamento morale.
Questa deriva antisemitica non sarebbe un episodio isolato. Negli ultimi mesi, Grok ha già mostrato inclinazioni verso contenuti filonazisti, con riferimenti a Hitler e stereotipi ricorrenti anche in assenza di richieste esplicite. Musk ha attribuito questi risultati all’adversarial prompting, cioè ai tentativi degli utenti di ingannare volutamente il modello. Una giustificazione che però non esclude una responsabilità diretta nella fase di verifica e controllo interno, soprattutto prima del rilascio di nuove versioni al pubblico.
L’altro caso: un presunto doxxing che solleva timori più ampi
Nelle stesse ore è emersa un’ulteriore controversia. Grok avrebbe individuato un presunto indirizzo collegato a Dave Portnoy, fondatore di Barstool Sports, partendo da una semplice foto del prato della sua abitazione pubblicata sui social. Un utente ha chiesto al chatbot di identificare il luogo dello scatto e Grok avrebbe fornito un indirizzo in Florida, il quale, secondo Futurism, sarebbe compatibile con le immagini presenti su Google Street View.
Per quanto concerne la sicurezza, l’episodio ha allarmato numerosi esperti. Anche se altri strumenti potrebbero consentire di risalire a un indirizzo simile, il fatto che un modello conversazionale possa fornirlo in modo diretto e immediato amplifica enormemente i rischi. Un sistema con accesso a grandi quantità di dati pubblici, se non adeguatamente filtrato, può avvicinarsi a informazioni sensibili con una rapidità che mette in discussione l’affidabilità dello strumento.
Una questione di responsabilità e supervisione
Situazioni come questa evidenziano la fragilità dei modelli poco controllati. Le risposte possono apparire coerenti da un punto di vista logico, ma completamente scollegate dai principi etici fondamentali. Il rischio riguarda sia la produzione di contenuti discriminatori, sia la divulgazione di informazioni personali senza una valutazione delle conseguenze.
Il dibattito su Grok riporta dunque al centro un interrogativo cruciale: quanto è prudente affidarsi a sistemi che rispondono soprattutto alle strategie commerciali di un’azienda o alla narrazione del proprio fondatore? Una domanda che continua a spingere analisti, ricercatori e utenti a chiedere regole più solide per l’uso dell’intelligenza artificiale.
