La Commissione Europea ha comunicato l’avvio di un’istruttoria formale su Grok, il chatbot sviluppato da xAI e integrato nel social network X. L’attenzione delle autorità si concentra sulla diffusione di immagini deepfake a contenuto sessuale attribuite al sistema di generazione visiva dell’assistente. Secondo quanto emerso, il fenomeno avrebbe assunto dimensioni tali da rendere necessario un intervento diretto delle istituzioni comunitarie. Le autorità hanno chiarito che la verifica punta a stabilire se tali contenuti siano stati prodotti e condivisi anche all’interno dei confini dell’Unione Europea, condizione che renderebbe applicabili le norme del Digital Services Act. Il quadro normativo prevede sanzioni rilevanti per le grandi piattaforme tecnologiche che non dimostrino di aver ridotto i rischi legati ai propri strumenti.
La questione dei deepfake sessuali
Le stime circolate nelle scorse settimane hanno parlato di milioni di immagini generate in un arco temporale ridotto. I soggetti? Prevalentemente femminili ed in vari casi minorenni. La commissaria europea per la tecnologia Henna Virkkunen ha descritto tali pratiche come una forma di degradazione violenta e incompatibile con i principi di tutela della persona. L’indagine europea dovrà accertare se xAI ha valutato in modo adeguato i rischi legati alle funzioni di Grok e se ha adottato misure preventive nei 27 Stati membri. Dopo le prime polemiche, la piattaforma ha dichiarato di aver limitato la funzione agli utenti a pagamento e di averla poi bloccata nei Paesi in cui la legge vieta questo tipo di contenuti.
Il caso ha prodotto reazioni istituzionali anche fuori dall’Europa. Diversi governi hanno disposto restrizioni temporanee su parti del servizio, accompagnate da aperture di procedimenti nazionali. A Bruxelles, l’attenzione resta alta anche su un’indagine più ampia avviata nel 2023, relativa ai sistemi di raccomandazione di X e alla gestione dei cosiddetti rischi sistemici. Ora, quel che è accaduto con Grok è praticamente un test per l’efficacia del DSA. Le conclusioni dell’inchiesta potrebbero infatti incidere non solo sul futuro del chatbot, ma anche sul modo in cui l’industria dell’intelligenza artificiale verrà regolata in Europa.
