News

WinRar e Zip surclassati dall’IA: arriva il nuovo algoritmo di compressione

A quanto pare la potenza dell’Intelligenza Artificiale può essere utilizzata veramente in tutto, il mondo dell’informatica è infatti letteralmente stato stravolto da questa rivoluzione che ora sta per toccare anche l’archiviazione, nel dettaglio la compressione dei file di grandi dimensioni che, normalmente vengono compressi tramite WinRar e WinZip.

La rivoluzione sembra annunciata, i ricercatori di DeepMind hanno scoperto come sfruttare le potenza di un Large Language Model (LLM) per ottenere notevoli tassi di compressione lossless sia per le immagini che per l’audio.

La loro creazione, Chinchilla 70B, ha dimostrato come l’intelligenza artificiale possa scendere in campo anche nella compressione superando in confini della tecnologia convenzionale.

 

I risultati

L’algoritmo dei ricercatori è stato addestrato inizialmente su dati testuali, salvo poi essere testato anche su immagini e audio con risultati sorprendenti, hanno infatti potuto ridurre le dimensioni delle immagini ad appena il 43,4% e i file audio ad appena il 16,4% delle loro dimensioni originali.

Tali risultati hanno superato tutti gli standard delle compressioni già presenti: PNG per le immagini, che le riduce solo al 58,5%, e FLAC per l’audio, che le comprime al 30,3% delle dimensioni iniziali.

L’unico limite di questo modello è la dimensione dei file, infatti secondo DeepMind i loro modelli possono ottenere grandi risultati su file piccoli, con quelli grandi invece i metodi tradizionali al momento risultano migliori, ecco la dichiarazione: “Abbiamo valutato modelli preaddestrati di grandi dimensioni utilizzati come compressori rispetto a vari compressori standard e abbiamo dimostrato che sono competitivi non solo sul testo ma anche su modalità su cui non sono mai stati addestrati. Abbiamo dimostrato che il punto di vista della compressione fornisce nuovi spunti sulle leggi di scalabilità, poiché tiene conto delle dimensioni del modello, a differenza dell’obiettivo log-loss, che è standard nell’attuale ricerca sulla modellazione linguistica“.

Condividi
Pubblicato da
Eduardo Bleve
Tags: IARARzip