La ricerca sugli umanoidi si concentra da anni sulla possibilità di far affrontare ai robot compiti mai visti prima, senza dover ricorrere ogni volta a un nuovo addestramento. Nella pratica, basta un oggetto con una forma leggermente diversa o un’illuminazione non prevista per mandare in crisi molti sistemi, un limite che rallenta l’arrivo dei robot nelle case o in lavori dinamici come logistica, ristorazione e servizi. Dalla Wuhan University arriva però un approccio diverso, progettato per introdurre una sorta di buon senso geometrico nelle macchine, così da renderle più intuitive nell’agire in scenari reali.
La proposta dei ricercatori si chiama Recurrent Geometric-Prior Multimodal Policy (RGMP), un framework che riduce la dipendenza da enormi dataset e punta a favorire un apprendimento più rapido. L’obiettivo è permettere ai robot di trasferire abilità già acquisite in situazioni nuove, un requisito fondamentale per un utilizzo pratico.
Il primo elemento del modello è il Geometric-Prior Skill Selector (GSS), un modulo che analizza forma, dimensioni e orientamento degli oggetti grazie alle telecamere integrate. In base a queste informazioni, il sistema stabilisce se sia più adatta una presa a una mano, un afferraggio bimanuale, una spinta o un movimento di rotazione. Una sorta di selettore di competenze che permette al robot di scegliere il comportamento più appropriato partendo da ciò che vede.
Efficienza maggiore e risultati incoraggianti nei test
Una volta scelta la strategia, interviene l’Adaptive Recursive Gaussian Network (ARGN). Questo componente modella le relazioni spaziali tra il robot e l’oggetto, generando passo dopo passo i movimenti necessari per completare il compito. Uno dei punti di forza è l’efficienza nell’uso dei dati, cinque volte superiore rispetto alle diffusion policies più avanzate. Serve un numero molto ridotto di dimostrazioni per apprendere abilità complesse, un vantaggio notevole in contesti in cui ogni ciclo di addestramento richiede tempo e risorse.
Nei test condotti dal team, RGMP ha ottenuto un tasso di successo dell’87% su compiti completamente nuovi. Un valore che supera nettamente le tecniche più diffuse e che suggerisce una direzione promettente per robot più autonomi e adattabili. La possibilità di manipolare oggetti mai visti prima senza riprogrammazione rappresenta un passo avanti verso robot domestici più utili, capaci di affrontare attività quotidiane senza assistenza costante.
Il gruppo della Wuhan University vuole ora esplorare una fase ancora più avanzata, con l’obiettivo di permettere al sistema di scegliere in autonomia le traiettorie e perfezionare i movimenti anche davanti a oggetti totalmente sconosciuti, riducendo al minimo l’intervento umano.
