OpenAI presenta l'IA SORA: esperti allarmati per alto rischio deepfake

OpenAI ha lanciato Sora, un’innovativa piattaforma AI progettata per consentire agli utenti di creare video in altissima risoluzione della durata massima di un minuto. Secondo le prime dichiarazioni dell’azienda, l’IA Sora offre la capacità di realizzare scene estremamente complesse, complete di diversi personaggi, movimenti specifici e dettagli accurati sia per il soggetto che per lo sfondo del filmato.

Il funzionamento di OpenAI Sora si basa sull’utilizzo di sofisticate reti neurali, che consentono al sistema di creare video realistici comprendendo le leggi della fisica e garantendo un’interazione coerente degli oggetti sullo schermo con il mondo reale. Ciò significa che l’IA è in grado di posizionare i soggetti all’interno delle scene e farli muovere in modo naturale, facendoli anche interagire con il contesto in modo convincente.

I rischi dell’utilizzo dell’IA di OpenAI

Il modello è stato progettato per avere una profonda comprensione del linguaggio, il che gli consente di interpretare le descrizioni testuali inserite dagli utenti e ricreare quanto descritto nel modo più accurato possibile. Un aspetto innovativo dell’IA di OpenAI è che può creare filmati fino a 60 secondi senza richiedere indicazioni fotogramma per fotogramma, permettendo allo strumento stesso di elaborare logicamente le indicazioni e mantenere una certa coerenza nella ripresa.

Sora non è priva di difetti e potrebbe avere difficoltà nella comprensione delle descrizioni o mostrare situazioni poco coerenti. Gli sviluppatori stanno infatti ancora lavorando per migliorare le prestazioni del sistema e rendere l’IA sempre più efficiente nel tempo. Un’altra caratteristica interessante di Sora è la sua capacità di creare video partendo da immagini fisse e di completare video già esistenti aggiungendo altri fotogrammi e prolungandone la durata.

Al momento, Sora è disponibile solo per un gruppo ristretto di ricercatori che stanno valutando i potenziali rischi e le implicazioni negative derivanti dal suo utilizzo. Ciononostante appare ovvio che questo strumento potrebbe rivoluzionare le modalità di creazione di contenuti digitali, anche se sorgono dubbi riguardo alla possibilità di creare deepfake sempre più credibili. Per affrontare questo problema, diverse aziende del settore, inclusa OpenAI, stanno lavorando all’inclusione dei metadati C2PA all’interno dei prodotti creati con l’IA e altri strumenti simili. Ciò consentirà agli utenti di identificare facilmente immagini e video generati dall’intelligenza artificiale, garantendo maggiore trasparenza e consentendo loro di capire la provenienza dei contenuti condivisi online.

Articolo precedenteL’Aeronautica Militare arriva anche nello Spazio
Articolo successivoI Messaggi AI di Android Auto: cosa sono e come funzionano