
Android Computer Control
Google sta lavorando a una nuova funzione sperimentale chiamata “Computer Control”, progettata per trasformare Android in una piattaforma capace di rispondere e agire tramite comandi vocali complessi. L’obiettivo è superare i limiti degli assistenti digitali tradizionali e rendere possibile un’interazione diretta tra utente e sistema operativo attraverso un agente di intelligenza artificiale capace di operare in autonomia, simulando tocchi, swipe e gesti sullo schermo.
Un progetto che nasce dall’idea del “dispositivo conversazionale”
Secondo un’indagine pubblicata da Android Authority, il codice preliminare di Android contiene riferimenti espliciti a “Computer Control”, un sistema di automazione che combina riconoscimento vocale, intelligenza artificiale e gestione diretta dell’interfaccia grafica. In pratica, l’utente potrà chiedere all’assistente di aprire un’app, compiere azioni al suo interno e restituire risultati, senza alcun intervento manuale.
L’approccio ricorda i tentativi di dispositivi come Rabbit R1, il mini gadget basato su AI che prometteva di sostituire lo smartphone attraverso comandi vocali. Tuttavia, quel concetto non ha mai raggiunto il pubblico — solo il 5% degli acquirenti lo utilizza ancora — per la scarsa precisione e la mancanza di un ecosistema software integrato. Google, invece, punta su un’infrastruttura nativa dentro Android, dove l’agente AI agisce direttamente sul sistema operativo, evitando limiti hardware e offrendo accesso alle funzioni di base dello smartphone.
Come funziona “Computer Control”
Nel codice del sistema operativo si fa riferimento a un “touchscreen virtuale”, cioè un ambiente digitale che l’AI può manipolare come se fosse un utente reale. Quando l’assistente riceve un comando, può simulare tap, scorrimenti e interazioni con le app, interpretando la richiesta dell’utente.
Un esempio pratico: basterebbe dire “prenota un treno per Milano domani mattina”, e l’agente, invece di limitarsi a cercare informazioni, aprirebbe l’app di Trenitalia, selezionerebbe gli orari e compilerebbe i campi necessari fino alla conferma finale.
Questa funzione, però, richiede una gestione rigorosa della sicurezza. Secondo le analisi di Android Authority, Google permetterà l’accesso al sistema solo ad applicazioni approvate manualmente, per evitare che software di terze parti possano controllare o leggere dati sensibili. Inoltre, il sistema prevede una modalità di “co-interazione”, che consente all’utente di intervenire in tempo reale senza interrompere le operazioni dell’AI. È come se due persone — l’utente e l’assistente — potessero usare lo stesso telefono contemporaneamente, su display virtuali separati.
