Durante un incontro con la stampa, Carolina Parada che è a capo della divisione robotica di Google DeepMind, ha presentato i nuovi progressi dell’azienda. Soprattutto nel campo dell’intelligenza artificiale applicata ai robot. Le tecnologie mostrate segnano un importante salto in avanti rispetto al passato. I robot non si limitano più a eseguire azioni semplici. Ma ora sono ora in grado di pianificare, prendere decisioni e risolvere problemi complessi nel mondo fisico.
Dietro a Google DeepMind c’è l’idea di un mondo condiviso: i robot imparano tra loro
Grazie alla nuova generazione di modelli Gemini, un robot può ad esempio preparare una valigia in base al meteo della destinazione, selezionare correttamente i vestiti per il bucato oppure differenziare i rifiuti secondo le regole locali. Il tutto dopo aver cercato online le informazioni necessarie. Queste capacità derivano dall’interazione tra la visione artificiale, il linguaggio naturale e l’accesso diretto al web. Che permette ai robot di trasformare dati astratti in azioni concrete e contestualizzate.
Il cuore della nuova tecnologia è costituito da Gemini Robotics-ER 1.5, il modello che interpreta l’ambiente e raccoglie informazioni online. Ed anche da Gemini Robotics 1.5, che esegue fisicamente i compiti basandosi su linguaggio naturale e comprensione visiva. Questo sistema combinato consente ai robot di agire in modo coerente e intelligente, adattandosi a situazioni diverse con una precisione mai vista prima.
Ma la vera svolta è un’altra. I robot possono ora imparare l’uno dall’altro, anche se appartengono a modelli o produttori diversi. Google ha mostrato come un compito appreso dal robot ALOHA2 sia stato replicato con successo sia dal bi-arm Franka sia dal robot umanoide Apollo, realizzato da Apptronik. Questa capacità di trasferimento delle competenze rappresenta un passo chiave verso un futuro in cui robot differenti collaborano, condividono esperienze e si evolvono come parte di un mondo comune.
Il modello Gemini Robotics-ER 1.5 è già accessibile tramite le API di Gemini su Google AI Studio. Mentre per ora l’utilizzo del modulo esecutivo Robotics 1.5 è limitato a partner selezionati. Google punta chiaramente a rendere la robotica più utile, autonoma e interconnessa. Preparando così il terreno a una nuova generazione di macchine intelligenti al servizio della quotidianità.
