Negli ultimi giorni, il web è stato invaso da un fenomeno inquietante e affascinante allo stesso tempo. Su TikTok, Instagram e YouTube compaiono video iperrealistici che mostrano personaggi storici e celebrità defunte tornare in vita. Tutto nasce dal lancio di Sora 2, la nuova evoluzione del sistema di OpenAI in grado di creare filmati estremamente realistici partendo da semplici comandi testuali. Le clip mostrano figure come Stephen Hawking trasformato in atleta o Mahatma Gandhi alla guida di una Toyota Supra, fino a Michael Jackson come streamer. Tra i più discussi c’è un video di John F. Kennedy, che “parla” di intelligenza artificiale e Black Friday, con una resa visiva così credibile da sembrare un documento d’archivio.
Sora 2, tra libertà creativa e rischio etico: il lato oscuro dell’IA
Dietro la meraviglia, però, si nasconde un problema profondo. Nessuna di queste persone può ovviamente autorizzare l’uso della propria immagine, e ciò costituisce una violazione diretta delle regole di OpenAI. L’azienda vieta infatti la creazione di “comparse digitali” senza consenso, ma la rapidità con cui Sora 2 è stata adottata rende difficile un controllo efficace. Persino il CEO Sam Altman è diventato bersaglio di video parodistici generati dalla piattaforma.
La questione alla base non è solo tecnica, ma morale. L’uso di immagini di persone defunte senza autorizzazione apre un vuoto normativo e solleva domande importanti sul diritto all’identità digitale. La denuncia più dura è arrivata da Zelda Williams, figlia del compianto Robin Williams, che su Instagram ha definito questi video “disgustosi hot dog industriali spinti in gola alla gente”.
In rete non mancano, d’altra parte, progetti più intimi, come quelli di familiari che scelgono di animare le foto dei propri cari per elaborare un lutto. Ma lì c’è consenso, affetto, contesto. Con Sora 2, invece, tutto appare senza regole. Chiunque può creare e diffondere contenuti potenzialmente lesivi della dignità altrui. Insomma, OpenAI dovrà ora affrontare la sfida più difficile. Dovrà stabilire limiti chiari per una tecnologia che può rivedere il passato, ma anche ferire il presente. La corsa all’intelligenza artificiale non può svincolarsi da etica e responsabilità.
