
Google Pixel 10
Con i nuovi Pixel 10, Google ha introdotto un sistema di marcatura digitale pensato per distinguere le immagini autentiche da quelle modificate con strumenti di intelligenza artificiale. La tecnologia si basa sul protocollo C2PA, che aggiunge ai file fotografici metadati crittografati. Tuttavia, i primi test mostrano che questo meccanismo di protezione può essere aggirato, sollevando dubbi sull’efficacia del sistema.
Come funziona il watermark C2PA
Il protocollo C2PA (Coalition for Content Provenance and Authenticity) inserisce nei file foto metadati criptati che certificano l’origine e il livello di modifica delle immagini. In questo modo, l’app Google Foto e altri software compatibili possono segnalare chiaramente all’utente se un contenuto è stato generato, ritoccato o lasciato intatto.
Le immagini vengono classificate in tre categorie principali:
- “Media captured with a camera” per foto originali senza modifiche.
- “Edited with non-AI tools” per contenuti corretti con strumenti tradizionali, come filtri o regolazioni di luminosità.
- “Edited with AI tools” per foto modificate in modo significativo da algoritmi di intelligenza artificiale.
Questo sistema punta a rendere più trasparente l’uso delle tecnologie generative, che possono alterare in modo profondo la percezione della realtà.
Il limite della protezione
Il punto debole emerso riguarda la possibilità di eliminare i metadati. Pur essendo impossibile falsificarli, grazie alla crittografia che impedisce di trasformare una foto AI in una “non AI”, i metadati possono essere cancellati completamente.
Secondo test indipendenti, strumenti facilmente reperibili come ExifTool consentono di rimuovere i dati C2PA con un solo comando, senza alterare le altre informazioni Exif dell’immagine. Il risultato è che una foto modificata dall’AI può apparire priva di qualsiasi indicazione, creando l’illusione che sia legittima.
Perché la rimozione è un problema
La possibilità di cancellare i metadati mette in discussione la reale efficacia del watermark. In assenza di C2PA, non c’è un’indicazione diretta della provenienza o delle manipolazioni subite dall’immagine. Un utente poco esperto potrebbe interpretare l’assenza di etichette come un segnale di autenticità, quando in realtà potrebbe trattarsi di un contenuto generato o modificato. Questo aspetto apre la porta a possibili usi impropri, soprattutto in un contesto in cui le immagini AI stanno diventando sempre più realistiche e difficili da distinguere da quelle reali.
Un segnale di manomissione
Va comunque precisato che la totale assenza di C2PA da una foto scattata con un Pixel 10 può essere di per sé un campanello d’allarme. Chi conosce il funzionamento del sistema sa che le immagini autentiche dovrebbero contenere metadati. La loro rimozione potrebbe quindi essere interpretata come un indizio di manipolazione, anche se non fornisce prove certe sull’uso dell’AI. In altre parole, il sistema non può impedire a un file di circolare senza metadati, ma rende possibile rilevare anomalie a chi effettua verifiche approfondite.
