In questi giorni, sembra che Google stia preparando una nuova modalità chiamata “Live for AI Mode”. Una funzione che potrebbe rappresentare una delle innovazioni più rilevanti nel campo dell’intelligenza artificiale per la ricerca mobile. A svelarlo è stata un’analisi dettagliata della versione beta 16.17 dell’app Google, in cui compaiono riferimenti espliciti a questa funzionalità sperimentale. Secondo quanto emerge dal codice, “Live” permetterà all’utente di interagire in tempo reale con un assistente AI attraverso la fotocamera del dispositivo.
La ricerca si fa interattiva grazie a Google: voce, immagini e AI tutte insieme
Ma vediamo come funziona. Inquadrando oggetti reali o condividendo lo schermo, sarà infatti possibile ricevere risposte vocali, fare domande e interrompere la conversazione semplicemente toccando il display. Il tutto sarà supportato da una serie di notifiche intelligenti che guideranno l’interazione, con comandi come “Termina sessione” o “Disattiva microfono”. L’obiettivo non è solo fornire un nuovo modo di cercare, ma rendere questa esperienza più naturale, coinvolgente e sensoriale. Google punta così a colmare il divario tra mondo fisico e quello digitale, rendendo l’IA in grado di rispondere a ciò che vediamo, non solo a ciò che diciamo.
Rispetto ad altri strumenti già noti come Gemini Live o il progetto Astra, “Live for AI Mode” introduce un approccio più visivo che conversazionale. Interessante anche l’uso dello screencast, grazie al quale sarà possibile condividere ciò che appare sullo schermo e ottenere spiegazioni o informazioni pertinenti. Le conversazioni poi verranno trascritte e arricchite da link utili per approfondire online.
Tale funzione però non sarà priva di limiti. In quanto ogni nuova domanda darà origine a una sessione indipendente, impedendo un dialogo continuativo. In più, trattandosi di un esperimento, Google segnala la possibilità di errori o risposte imprecise. Ma nonostante queste precauzioni, la direzione è chiara. Insomma, l’azienda intende costruire un sistema in cui la ricerca non passa più solo dalla tastiera o dal microfono, ma anche dallo sguardo e dal gesto. Una trasformazione che promette di rivoluzionare completamente il modo in cui interagiamo con i dispositivi mobili.
