Google continua a spingere sull’evoluzione di Gemini e i primi segnali concreti arrivano direttamente dal codice dell’app per Android. Secondo un’analisi approfondita, è emersa una nuova sezione chiamata GeminiLabs. Quest’ ultima è stata pensata per offrire agli utenti un accesso anticipato a funzionalità sperimentali ancora in fase di sviluppo. L’obiettivo? Trasformare Gemini in un assistente sempre più completo. L’IA deve essere in grado non solo di rispondere alle domande, ma anche di comprendere il contesto visivo, interagire con le app e gestire compiti complessi in modo autonomo.
Questa strategia si inserisce nel percorso avviato con Project Astra. Si intende il progetto con cui Google ha delineato la propria visione di un assistente universale basato sull’AI. La sezione Labs consentirebbe agli utenti più curiosi di testare in anticipo le novità, offrendo feedback utili per perfezionare le funzioni prima del rilascio ufficiale. È un approccio già visto in passato con altre piattaforme, ma applicato ora in modo più strutturato all’intelligenza artificiale.
Gemini Live e Thinking Mode: più contesto, più profondità e controllo dell’interfaccia
Tra le novità più interessanti emergono le nuove opzioni dedicate a Gemini-Live, che promettono un’interazione ancora più naturale e avanzata. Il codice fa riferimento a una memoria multimodale, a una migliore gestione del rumore ambientale e alla capacità di reagire in tempo reale a ciò che l’assistente “vede” sullo schermo. Ciò significa che Gemini potrebbe interpretare immagini, contenuti visualizzati e informazioni provenienti dalle app, offrendo risposte contestuali più precise e personalizzate.
Un’altra funzione chiave è il Gemini-Thinking Mode. Si tratta di una modalità che consente all’assistente di prendersi più tempo per elaborare risposte approfondite. Questo approccio punta a migliorare il ragionamento complesso, offrendo spiegazioni dettagliate e analisi. A completare il quadro arriva anche l’evoluzione della funzione Deep Research, pensata per delegare a Gemini attività di ricerca articolate, con la possibilità di sintetizzare grandi quantità di informazioni in modo ordinato.
Particolarmente rilevante è infine la voce legata al controllo dell’interfaccia, che suggerisce una futura modalità agentica. In pratica, Gemini potrebbe essere in grado di interagire direttamente con le app installate sullo smartphone, automatizzando operazioni come impostazioni, navigazione tra menu o gestione di attività ripetitive. Tutto ciò rappresenterebbe un salto importante verso un’AI realmente operativa, non più limitata al dialogo testuale o vocale.
