Negli ultimi mesi il tema dei deepfake a sfondo sessuale è passato da questione di nicchia a problema pubblico, e non è difficile capire perché. L’intelligenza artificiale corre veloce, molto più veloce delle regole che dovrebbero contenerla, e quando finisce per essere usata contro le persone reali il dibattito smette di essere astratto. È in questo contesto che Grok, il chatbot sviluppato da xAI e integrato direttamente in X, è diventato il nuovo bersaglio delle critiche. Non tanto per quello che promette di fare, ma per quello che, di fatto, permette.
Grok di xAI sotto accusa: migliaia di deepfake sessuali all’ora
Secondo un’analisi indipendente, Grok sarebbe in grado di generare una quantità impressionante di immagini deepfake sessualizzate, incluse quelle che simulano la nudità di persone reali. Parliamo di numeri che fanno riflettere: circa 6.700 immagini all’ora, un ritmo che non ha paragoni con le piattaforme più note per questo tipo di contenuti. A rilevarlo è stata Genevieve Oh, ricercatrice specializzata in deepfake e social media, che ha monitorato per un’intera giornata i contenuti pubblicati dall’account ufficiale di Grok su X. Il risultato non è solo una statistica, ma il segnale di un problema strutturale.
La differenza principale rispetto ad altre app di nudificazione artificiale sta nell’accessibilità. Grok è gratuito, integrato in un social network enorme e utilizzato quotidianamente da milioni di persone. Questo dettaglio cambia tutto, perché rende la creazione e la diffusione di immagini non consensuali qualcosa di normale, quasi banale, inserita nel flusso quotidiano dei post e delle interazioni. Non sorprende quindi che il Financial Times abbia descritto X come una sorta di sito di deepfake porn con un nome nuovo e una facciata più presentabile.
Le conseguenze non sono teoriche. Negli anni molte applicazioni simili sono finite sotto processo per aver trasformato le immagini di donne e minori in materiale sessuale senza consenso. Con Grok, però, il confine tra esperimento tecnologico e strumento di massa si fa pericolosamente sottile. A raccontarlo è anche Ashley St Clair, scrittrice e stratega politica, che ha denunciato la circolazione di deepfake sessuali che la riguardavano, inclusi montaggi realizzati partendo da sue fotografie d’infanzia. Nel suo racconto emerge un uso del chatbot come strumento di revenge porn, spesso alimentato da ambienti ideologicamente vicini ai sostenitori di Elon Musk.
La risposta ufficiale di xAI segue una linea già vista: nessun sistema di moderazione è perfetto, ma si può fare di meglio. L’azienda sostiene di stare lavorando su filtri più efficaci, soprattutto per i contenuti che coinvolgono minori, e di analizzare le segnalazioni degli utenti. Resta però aperta una questione più profonda, che riguarda la filosofia del progetto. Musk ha sempre presentato Grok come un’AI meno vincolata, più “libera”, e l’introduzione dello Spicy Mode ha reso evidente cosa significhi, nella pratica, questa libertà. Secondo alcune stime, oggi la stragrande maggioranza delle immagini generate dal sistema ha un contenuto sessualizzato.
Nel frattempo X assicura di rimuovere i contenuti illegali e di collaborare con le autorità, ma l’attenzione dei governi è ormai alta. Francia, Regno Unito, India, Australia, Malaysia e Brasile hanno avviato indagini sul ruolo di Grok nella diffusione di immagini sessuali non consensuali. Il punto, ormai, non è più solo tecnologico: è una questione di responsabilità, e capire chi deve farsene carico diventa ogni giorno più urgente.
