Le nuove regole degli Oscar sull’intelligenza artificiale segnano un passaggio importante per l’intera industria cinematografica. L’Academy of Motion Picture Arts and Sciences ha deciso di aggiornare i criteri di ammissibilità agli Academy Awards, mettendo nero su bianco un principio che fino a poco tempo fa sembrava scontato: per concorrere nelle categorie legate alla recitazione e alla scrittura, il lavoro deve essere stato svolto da esseri umani. Le performance dovranno risultare accreditate nel legal billing del film e “dimostrabilmente eseguite da esseri umani con il loro consenso”. Le sceneggiature, allo stesso modo, dovranno essere “scritte da esseri umani”.
Attenzione, però: non si tratta di un divieto totale dell’AI nel cinema. L’Academy non chiude la porta agli strumenti generativi o digitali durante la lavorazione di un film. Quello che chiede è un contributo umano verificabile, soprattutto quando si parla di candidature nelle categorie più sensibili. E in caso di dubbi, l’organizzazione si riserva il diritto di chiedere ulteriori informazioni sulla natura dell’uso dell’intelligenza artificiale e sulla paternità umana del lavoro presentato. La stessa Academy ha definito questa modifica come “sostanziale”, segno che il tema è tutt’altro che marginale.
Nel comunicato del 21 aprile, era già stato fissato un criterio più ampio: gli strumenti di intelligenza artificiale generativa e gli altri strumenti digitali usati nella realizzazione di un film “non aiutano né danneggiano le possibilità di ottenere una nomination”. Tradotto: la tecnologia di per sé non sposta nulla, né in positivo né in negativo. La valutazione resta nelle mani dell’Academy e dei singoli rami competenti, che dovranno considerare “in quale misura un essere umano sia stato al centro dell’autorialità creativa”.
Perché l’AI generativa è diversa dalla CGI tradizionale
Il cinema lavora con strumenti digitali da decenni. La CGI è parte integrante delle produzioni fin dagli anni Novanta, e nessuno si sognerebbe di metterla in discussione. Ma l’AI generativa introduce una differenza di fondo: non si limita a supportare un lavoro manuale e creativo, ma può automatizzare porzioni molto ampie del processo attraverso prompt relativamente semplici. Immagine, voce, volto, testo: tutto può essere ricreato o prodotto artificialmente con una qualità che cresce di mese in mese. Per questo l’Academy non ha scelto la strada della chiusura totale, ma ha rafforzato il criterio della responsabilità creativa umana.
Il rapporto tra AI e lavoro creativo, del resto, era già esploso nel 2023, durante gli scioperi degli attori e degli sceneggiatori di Hollywood. Per il sindacato degli autori, uno dei punti centrali della mobilitazione riguardava proprio il possibile uso dell’intelligenza artificiale da parte degli studios per scrivere copioni o intervenire sul lavoro creativo. Anche gli attori avevano messo in primo piano la questione della riproduzione digitale delle performance, del consenso e del controllo sull’uso della propria immagine e della propria voce.
Un problema che va oltre il grande schermo
La questione non riguarda solo il cinema. Fuori da Hollywood, almeno un romanzo è stato ritirato dall’editore per il presunto uso dell’intelligenza artificiale, e alcune associazioni di scrittori stanno già stabilendo che l’impiego dell’AI renda un’opera non ammissibile a determinati premi letterari. Sullo sfondo resta anche il nodo dei modelli linguistici di grandi dimensioni, alla base di molti strumenti AI, addestrati su testi, immagini e video creati da persone nel corso degli anni, con tutte le controversie sul diritto d’autore che ne derivano.
Studios, attori e autori hanno avviato azioni legali contro diverse aziende AI, sostenendo che l’addestramento dei sistemi possa configurare violazioni del copyright. Le nuove regole degli Oscar non risolvono quel problema, ma intervengono su un punto preciso: un premio assegnato alla recitazione o alla scrittura deve riconoscere un lavoro umano, non una prestazione sintetica o un testo generato senza paternità creativa personale.
