Google ha confermato ufficialmente che sta utilizzando i video presenti su YouTube per addestrare i suoi modelli di intelligenza artificiale, come Gemini e il generatore video Veo. Un dettaglio passato finora sotto traccia, che però ha provocato reazioni accese all’interno della comunità dei creator, molti dei quali si sono detti all’oscuro di tutto. Eppure, è proprio grazie ai loro video che Google alimenta il training delle sue tecnologie AI più avanzate.
Termini di servizio e mancanza di trasparenza
La questione ruota attorno a un elemento cruciale: la consapevolezza. Molti creator intervistati da diverse testate hanno dichiarato di non essere mai stati informati dell’uso dei loro video per scopi legati all’addestramento dell’intelligenza artificiale. YouTube, da parte sua, ha ribadito che “da sempre” i contenuti caricati vengono utilizzati per migliorare i propri servizi, senza però specificare in modo chiaro che tra questi rientrassero anche sistemi di AI generativa.
Secondo i termini di servizio della piattaforma, accettati al momento dell’upload, YouTube dispone di una licenza d’uso estesa sui contenuti caricati. Questo lascia a Google un’ampia libertà d’azione. Tuttavia, mentre è possibile impedire a soggetti esterni come Nvidia o Amazon di accedere ai video per il training di modelli AI, non esiste alcuna opzione per limitare l’utilizzo interno da parte di Google stessa.
Un vantaggio competitivo enorme
La portata di questa strategia è notevole. YouTube conta oltre 20 miliardi di video: anche utilizzandone soltanto l’1%, si tratterebbe di oltre 2 miliardi di minuti di materiale video, ben più di quanto utilizzato per l’addestramento di modelli concorrenti. Dai vlog ai documentari, dai gameplay ai video educativi, la varietà dei contenuti disponibili su YouTube offre a Google un vantaggio competitivo enorme nello sviluppo di AI in grado di capire e generare video con un elevato livello di realismo.
Proprio Veo 3, il nuovo modello in fase di sviluppo, è in grado di generare video realistici da semplici input testuali. Ma è anche l’esempio lampante di come il contenuto umano venga usato per creare strumenti che, paradossalmente, potrebbero un giorno sostituire i creator stessi.
Tra diffidenza e apertura
Alcuni content creator vedono in tutto questo una minaccia concreta per il futuro del loro lavoro, temendo che l’intelligenza artificiale possa ridurre le opportunità economiche e creative offerte dalla piattaforma. Altri, invece, mantengono un atteggiamento più cauto, considerandolo un cambiamento inevitabile da gestire, più che contrastare, magari per costruire nuove forme espressive proprio grazie agli strumenti offerti da questi modelli AI.
Resta il fatto che Google non è l’unica azienda ad aver adottato questa strategia: anche OpenAI, Apple, Anthropic e persino Salesforce avrebbero utilizzato i contenuti pubblici di YouTube per addestrare i propri sistemi. Alcuni, come Nvidia, parlano di un uso fatto “nello spirito del copyright”.
Ma proprio qui nasce il problema: quando tutto è pubblico, nulla è davvero sotto controllo. E per milioni di creator, la mancanza di scelta potrebbe diventare un punto critico su cui fare chiarezza, prima che sia troppo tardi.
