L’interesse verso le intelligenze artificiali non si limita più alla loro capacità di rispondere a domande. Negli ultimi mesi, il dibattito si è concentrato sul rapporto tra AI e figure pubbliche, in particolare su Elon Musk. La versione 4.1 di Grok, il modello sviluppato attraverso xAI, ha mostrato una curiosa tendenza. Quest’ultimo, infatti, risponde con ammirazione quando gli utenti hanno posto domande sul fondatore della compagnia. Dalle valutazioni sulle sue capacità imprenditoriali fino ai giudizi sul suo aspetto fisico, l’AI ha dimostrato un atteggiamento di evidente preferenza, anche mantenendo un tono equilibrato. Dopo aver notato tale tendenza, gli utenti si sono divertiti a proporre scenari improbabili. Come scegliere Musk tra quarterback nel football americano o come modello di passerella. Grok non ha esitato a indicare Musk come scelta preferita. Allo stesso tempo, però, l’AI non ha nascosto alcune criticità. Tra cui l’abitudine di Musk a fare promesse troppo ottimistiche, a postare a orari insoliti o essere impulsivo.
Elon Musk al centro dell’attenzione di Grok
Il fenomeno solleva domande più ampie sul ruolo dei bias nelle AI. Grok riconosce che le sue risposte riflettono, almeno in parte, le convinzioni dei creatori. Un limite noto, ma non auspicabile per un modello progettato per cercare la verità. È importante sottolineare, però, che tale meccanismo sembra circoscritto. L’adulazione dell’AI non si estende a tutti gli individui, ma riguarda in modo specifico Musk.
Tali episodi evidenziano le sfide etiche legate all’uso delle AI. La tecnologia non si limita a replicare informazioni, ma può modellare percezioni e narrazioni pubbliche. Il caso Grok dimostra che innovazione, fascinazione per figure di spicco e responsabilità sociale si intrecciano in un dibattito più ampio, dove la società è chiamata a trovare un equilibrio. In un mondo sempre più digitale, comprendere i limiti e le potenzialità delle intelligenze artificiali diventa fondamentale per il settore e le abitudini degli utenti.
