Un gruppo di scrittori e editori ha deciso di fare causa a Meta Platforms, accusando l’azienda di aver sfruttato opere protette da copyright per addestrare i propri modelli di intelligenza artificiale generativa senza alcuna autorizzazione. Tra i nomi coinvolti nella vicenda spicca quello di Scott Turow, autore di fama internazionale e figura di primo piano all’interno della Authors Guild, il che dà alla causa un peso simbolico non trascurabile. La questione si inserisce in un’ondata crescente di contenziosi legali che stanno ridisegnando i confini tra sviluppo tecnologico e tutela della proprietà intellettuale, un terreno ancora parecchio scivoloso dal punto di vista normativo.
Stando a quanto emerge, Meta avrebbe inserito libri e altri materiali editoriali nei dataset di addestramento dei propri modelli linguistici senza ottenere le necessarie licenze dagli aventi diritto. Gli autori che hanno promosso la causa ritengono che questa pratica rappresenti una violazione diretta del diritto d’autore, soprattutto quando i modelli si dimostrano capaci di generare testi riconducibili alle opere originali. E qui si apre il vero nodo della faccenda.
Fair use o violazione? Il nodo tecnico che nessuno ha ancora sciolto
La difesa delle aziende tecnologiche, Meta compresa, si basa su un argomento ormai noto: l’addestramento dei modelli rientrerebbe nel cosiddetto fair use, perché i sistemi non conservano copie integrali dei testi ma imparano schemi astratti da miliardi di parole raccolte da fonti pubbliche, archivi digitali e dataset aggregati. Dal lato opposto, gli autori contestano questa lettura portando esempi concreti di output generati dai modelli che risultano molto simili ai contenuti originali. Un bel problema, considerando che le leggi sul diritto d’autore non sono state pensate per gestire sistemi in grado di “digerire” quantità così enormi di contenuti digitali.
La causa contro Meta non rappresenta un episodio isolato. Sia negli Stati Uniti che in Europa, le azioni legali nei confronti di chi sviluppa intelligenza artificiale generativa si stanno moltiplicando rapidamente. Le richieste variano: si va dal risarcimento economico fino alla rimozione completa dei dataset contestati. Il coinvolgimento di Scott Turow, per il ruolo che ricopre nel mondo editoriale, trasforma questo specifico procedimento in un potenziale caso di riferimento per l’intero settore.
Cosa può cambiare a seconda dell’esito del processo
Le ricadute di questo contenzioso potrebbero essere enormi, in un senso o nell’altro. Se i tribunali dovessero dare ragione agli autori riconoscendo una violazione del copyright, le aziende come Meta si troverebbero costrette a rivedere i propri dataset, a introdurre sistemi di licenza formali o a pagare compensi su larga scala. Tutto questo avrebbe un impatto diretto e significativo sui costi di sviluppo dell’intelligenza artificiale e sui modelli di business che oggi reggono il settore. Un esito favorevole alle aziende, al contrario, rafforzerebbe l’idea che l’addestramento basato su grandi dataset rappresenti un uso legittimo, consolidando l’approccio attuale.
