Negli ultimi giorni Meta si è trovata al centro di una bufera mediatica. Alcune voci sostengono che l’azienda avrebbe utilizzato film porno pirata per addestrare i suoi modelli di Intelligenza Artificiale. La notizia, esplosa sui social e poi ripresa da diversi media internazionali, ha rapidamente attirato l’attenzione dell’opinione pubblica. Episodi come questo sollevano dubbi importanti su privacy, copyright e limiti etici dell’AI.
L’azienda di Mark Zuckerberg, però, ha smentito con fermezza. Nessun contenuto illegale o non autorizzato sarebbe stato incluso nei dataset di addestramento. Secondo quanto detto da Meta, i materiali usati provengono da archivi pubblici o da fonti per cui è stata concessa un’autorizzazione esplicita. “Le accuse sono totalmente false”, spiega un portavoce. Aggiunge anche che la società rispetta “rigorosamente le leggi sul diritto d’autore e sulla protezione dei dati”.
Etica e trasparenza nell’era dell’AI
L’episodio riaccende un dibattito ormai centrale: quanto è realmente trasparente il processo di addestramento dei modelli AI? Molti esperti chiedono regole più chiare su cosa può o non può essere utilizzato, specialmente quando si tratta di contenuti sensibili o di proprietà intellettuale. Non solo cosa ma anche come questi materiali vengono utilizzati.
Nel frattempo, Meta promette di pubblicare nuove linee guida per chiarire meglio la provenienza dei dati e garantire la massima trasparenza. L’obiettivo è rassicurare sia gli utenti sia le autorità, in un momento in cui la fiducia nei sistemi di intelligenza artificiale è più fragile che mai. In attesa di verifiche ufficiali, la vicenda mostra ancora una volta quanto sia sottile il confine tra innovazione tecnologica e rispetto dei diritti digitali.