Fino a qualche anno fa, una fotografia o un video bastavano come prova di qualcosa che era successo davvero. Quel tempo è finito. L’intelligenza artificiale generativa ha cambiato tutto, rendendo possibile a chiunque creare contenuti falsi ma incredibilmente credibili, a costo praticamente zero e senza competenze tecniche particolari. Il punto non è più soltanto la disinformazione sui social: il problema ormai tocca i processi aziendali, le indagini giudiziarie, il lavoro giornalistico. Quando tutto può essere fabbricato, niente viene più creduto. Ed è qui che entra in gioco TrueScreen, startup italiana fondata nel 2022, che ha sviluppato una piattaforma per acquisire, verificare e certificare dati digitali con valore forense. Non si tratta di smascherare il falso dopo che è stato diffuso, ma di garantire l’autenticità dei contenuti nel momento stesso in cui vengono creati.
I numeri danno un’idea della portata del fenomeno. Le frodi basate su deepfake sono cresciute del 1.300% solo nel 2025. Secondo le stime di Gartner, oggi circa il 3% delle aziende è consapevole del rischio legato alla manipolazione dei contenuti digitali, ma entro il 2028 questa percentuale dovrebbe salire al 50%. Non si parla più di un problema emergente, è diventato strutturale.
Perché gli strumenti di riconoscimento non bastano più
Fabio Ugolini, co-fondatore e amministratore delegato di TrueScreen, lo dice senza giri di parole: la capacità umana di distinguere un contenuto autentico da uno generato è già insufficiente oggi. Ci sono ancora segnali tecnici che un esperto può cogliere, come incoerenze nella riflessione della luce, artefatti nelle mani, texture della pelle troppo uniforme, bordi innaturali intorno ai capelli. Ma sono difetti temporanei dei modelli generativi, non limiti permanenti. Ogni nuova versione ne corregge qualcuno. E anche i cosiddetti AI detector, gli strumenti automatici di rilevamento, funzionano in modo ragionevole solo sui modelli che già conoscono. Studi recenti attribuiscono loro un’affidabilità intorno al 55%, che in pratica equivale a lanciare una moneta.
È una corsa asimmetrica: chi genera contenuti falsi ha sempre un vantaggio su chi cerca di rilevarli. Per questo TrueScreen ha scelto un approccio completamente diverso. Invece di chiedersi se un contenuto sia falso, la domanda diventa: come si dimostra che è vero? La differenza non è solo di parole, è di architettura. Certificare l’autenticità al momento dell’acquisizione è un problema risolvibile. Riconoscere la falsità a posteriori è una rincorsa destinata a non finire mai.
Come funziona la certificazione forense di TrueScreen
Quando un utente acquisisce un contenuto tramite la piattaforma, il sistema verifica che non ci siano alterazioni e cattura non solo il file (foto, video, documento, screenshot, email) ma l’intero contesto: metadati del dispositivo, geolocalizzazione, timestamp, stato della rete, hash crittografici. Tutto avviene all’interno di ambienti sicuri, protetti da interventi esterni. Qualsiasi modifica successiva risulta rilevabile. Il risultato è un report forense con valore legale, utilizzabile in tribunale, in un’indagine, allegato a un sinistro assicurativo. La metodologia brevettata è conforme agli standard internazionali. Dettaglio fondamentale: la certificazione forense funziona perché avviene nell’istante in cui il dato nasce, non può essere applicata retroattivamente a un contenuto che ha già attraversato condivisioni, compressioni e potenziali manipolazioni.
TrueScreen viene utilizzata anche in contesti estremi come l’Ucraina, dove la documentazione delle evidenze sul campo deve reggere davanti a una corte internazionale. Non basta che un video sembri vero. E anche nel giornalismo la questione è diventata cruciale: una redazione che riceve un video da una fonte oggi deve porsi una domanda che vent’anni fa semplicemente non esisteva. Federpol, l’associazione nazionale degli investigatori privati italiani, ha già adottato questo approccio tramite l’applicazione Federpol Forensics. Secondo Ugolini, entro pochi anni la certificazione dell’autenticità dei dati digitali sarà diffusa quanto il protocollo HTTPS lo è oggi per il web, non perché imposta dall’alto, ma perché il costo di non farlo diventerà insostenibile. L’AI Act europeo rappresenta un passo nella direzione giusta, anche se la regolazione da sola non basta senza una metodologia rigorosa alle spalle.
