Meta arriva l’etichetta per le immagini generate dall’AIL’espansione dell’AI generativa ha portato ad una serie di vantaggi, ma anche ad alcuni rischi per quanto riguarda la diffusione di fake news. A tal proposito, Meta ha annunciato una nuova politica per l’etichettatura delle immagini generate dall’AI. Questo sistema verrà applicato a tutte le immagini pubblicate sulle sue piattaforme, incluse Facebook, Instagram e Threads. Questa politica prevede l’inserimento di avvertenze per informare gli utenti sull’origine dei contenuti, segnalando così la natura generata artificialmente delle immagini.

In realtà Meta già etichetta le immagini generate con i suoi strumenti di AI, utilizzando il tag “Imagined with AI” e un watermark incorporato negli algoritmi. Con la nuova politica l’Azienda estenderà questo processo anche alle immagini generate da strumenti di altre aziende.

L’etichettatura delle immagini AI di Meta

Nonostante l’importanza di questo tipo di iniziative, ci sono sfide non facili da superare. Hany Farid, professore presso la School of Information dell’Università della California – Berkeley e consulente dell’iniziativa C2PA, sottolinea che i malintenzionati potrebbero facilmente eludere i watermark o utilizzare strumenti che non li inseriscono affatto. Questo è stato evidenziato da casi come il deepfake del presidente Biden, in cui i creatori non hanno aggiunto watermark per identificare l’origine del contenuto.

Per riuscire a sopperire a queste possibili falle, Farid suggerisce che potrebbe essere necessario combinare diverse tecniche. Ad esempio, si potrebbe affiancare l’utilizzo di watermark alle tecnologie di hashing, per identificare in modo affidabile le immagini generate dall’AI. Questo particolare intervento risulta sicuramente complicato a causa dell’assenza di uno standard universalmente accettato per l’identificazione delle immagini generate artificialmente.

Inoltre, mentre Meta si concentra sull’etichettatura delle immagini, è importante notare che non tutti i media manipolati sono generati dall’AI. L’Oversight board di Meta ha recentemente confermato la decisione dell’azienda di non rimuovere un video manipolato di Biden. Questo evento sottolinea la necessità per Meta di rivedere e ampliare le sue politiche sui media manipolati per affrontare anche i contenuti non generati dall’AI.

Sebbene la nuova politica di Meta rappresenti un passo avanti nell’affrontare i rischi associati alle immagini generate dall’AI, è evidente che vi sono ancora molte sfide considerevoli da affrontare. È necessaria un approccio più completo e un impegno maggiore per garantire che le piattaforme online siano in grado di proteggere gli utenti dai danni causati dalla disinformazione e dalla manipolazione dei contenuti.

Articolo precedenteWindTre abbandona la vendita della sua rete fissa e mobile a EQT
Articolo successivoDisney+ impone restrizioni alla condivisione delle password: cosa cambia