Alcuni esperimenti scientifici sembrano usciti da un film di fantascienza, ma quello condotto dai ricercatori dell’Università di Liverpool ha qualcosa di davvero affascinante: un’intelligenza artificiale che percepisce il mondo un po’ come noi, combinando suoni e immagini in maniera naturale. L’ispirazione arriva dagli insetti: questi piccoli esseri hanno sviluppato, nel corso dell’evoluzione, meccanismi rapidissimi per unire segnali visivi e uditivi. Cesare Parise, psicologo, ha preso questa intuizione e l’ha trasformata in un modello AI che lavora con filmati e suoni reali, non più con dati astratti come i sistemi precedenti.
Dall’insetto alla macchina: un AI multisensoriale rivoluziona la percezione
Il cervello umano fa questa magia ogni giorno. Guardando qualcuno parlare, unisce in un istante il movimento delle labbra al suono della voce; è il motivo per cui percepiamo correttamente una conversazione o perché illusioni come l’effetto McGurk funzionano così bene. Riprodurre questo tipo di elaborazione nelle macchine è da tempo una sfida enorme: i modelli tradizionali funzionano in teoria, ma non sanno gestire stimoli reali. L’MCD, il Multisensory Correlation Detector, supera questo limite grazie a una griglia di “rilevatori di correlazione” che mappa i legami tra suono e immagine nello spazio e nel tempo, adattando un principio biologico antico a un compito moderno.
I test non lasciano dubbi: il modello riproduce con precisione i risultati di 69 esperimenti classici su umani, scimmie e ratti, superando sistemi teorici più complessi come il modello di inferenza causale bayesiana, ma con meno parametri e minore potenza di calcolo. Può persino prevedere dove lo sguardo umano si concentrerà in una scena audiovisiva, funzionando come una sorta di “radar dell’attenzione”.
A differenza delle reti neurali moderne, che richiedono montagne di dati etichettati, questo modello lavora subito sugli input reali, senza training massiccio. Le potenziali applicazioni sono tantissime: robot capaci di comprendere l’ambiente come farebbe un umano, sistemi di guida autonoma più sicuri, o dispositivi che reagiscono agli stimoli audiovisivi in tempo reale.
Quello che rende questo lavoro davvero suggestivo è il paradosso: il cervello minuscolo di un insetto diventa la base per macchine che capiscono il mondo come noi. Non si tratta solo di tecnologia, ma di una nuova prospettiva sulla percezione artificiale, più vicina alla nostra esperienza quotidiana di suoni, immagini e attenzione. In un certo senso, impariamo a vedere e sentire attraverso gli occhi di un insetto, e grazie a questo, le macchine potrebbero cominciare a fare lo stesso.
