IA

In un contesto tecnologico sempre più affrontato da dibattiti sul copyright legato all’IA generativa, emerge un’iniziativa no profit che potrebbe cambiare il panorama. Stiamo parlando del gruppo Fairly Trained, fondato da Ed Newton-Rex, ex figura di spicco di Stability AI. Quest’ ultimo si propone di introdurre una certificazione per i modelli di intelligenza artificiale, mettendo in luce i servizi che rispettano in modo etico il copyright.

Lotta alla violazione del copyright nell’IA attraverso una nuova iniziativa no profit

Il dibattito sulla violazione del copyright nell’ambito dell’IA persiste nonostante le discussioni su watermark e simili. Fairly Trained si pone così l’obiettivo di rendere chiare agli utenti le pratiche etiche nell’addestramento dei modelli AI. In questo modo, vengono prese in considerazione soluzioni che richiedono il consenso degli autori o dei detentori dei diritti per l’utilizzo di materiale protetto da copyright.

Per ottenere la certificazione, le aziende legate all’IA dovranno dimostrare di aver ottenuto il permesso per l’utilizzo dei dati utilizzati nell’addestramento. Newton-Rex, nel lasciare Stability AI a novembre 2023, ha dichiarato che l’IA attuale “sfrutta i creatori“, evidenziando la necessità di un approccio più etico.

Anche se il percorso legislativo sia ancora lungo così come anche la strada ancora da percorrere, l’iniziativa di Fairly Trained rappresenta un passo significativo verso la trasparenza nell’industria dell’IA. In ogni caso, per ulteriori dettagli e approfondimenti, potete consultare il blog ufficiale di Fairly Trained, il quale offre una fonte preziosa di informazioni sui progressi e le sfide affrontate dall’organizzazione fino a questo momento. Restate connessi per ulteriori aggiornamenti e dettagli a riguardo.

Articolo precedenteiPhone, le tecniche per spiare dispositivi che nessuno ti ha mai detto
Articolo successivoSamsung Galaxy S24 smartphone ideale per Instagram?