L’assistente Gemini ha iniziato a supportare l’uso in split screen anche sugli smartphone classici, superando il limite iniziale che lo confinava a tablet e dispositivi pieghevoli. La funzione risulta collegata alla versione 17.5.42.ve.arm64 dell’app Google ed è attiva di default, senza procedure manuali. I primi test sono stati condotti su Google Pixel 9 con Android 17 beta, con risultati giudicati più fluidi rispetto al tradizionale overlay che occupa parte del display. L’interazione a schermo diviso consente di consultare l’assistente senza interrompere l’app principale, creando una continuità visiva che rende il multitasking più lineare e meno invasivo. L’apertura simultanea di due applicazioni modifica la dinamica dell’assistenza, che si adatta allo spazio disponibile invece di sovrapporsi ai contenuti.
Disponibilità e diffusione graduale
Una delle novità più interessanti riguarda la possibilità di condividere la schermata con Gemini quando l’assistente viene aperto accanto a un’altra app. Compare un indicatore animato che segnala l’avvio dell’analisi visiva della metà di display dedicata all’app affiancata. Il comportamento, attenzione, varia in base al software utilizzato. Con Google Chrome, l’assistente non legge direttamente i pixel della pagina, ma acquisisce l’URL attivo, riproducendo di fatto la funzione “Ask this page”. Con applicazioni differenti, invece, viene catturata un’immagine della finestra adiacente per ricavare informazioni utili al dialogo. Durante l’operazione, l’area occupata da Gemini viene temporaneamente oscurata per evitare distrazioni visive.
La funzione risulta attiva su Pixel 9 con versioni beta recenti di Android, mentre su modelli come OnePlus 13R non è stata ancora rilevata. La distribuzione segue una strategia prudente, già avviata formalmente nel settembre 2025, con un’estensione progressiva che privilegia prima i dispositivi della linea Pixel. Chi possiede uno smartphone compatibile può controllare la versione dell’app Google installata per verificare la presenza dello split screen. L’introduzione di questa modalità rafforza l’idea di un’assistenza integrata nel flusso di lavoro, capace di dialogare con le app aperte e di offrire suggerimenti basati sul contenuto visibile. L’attenzione posta sull’esperienza grafica e sull’analisi del contesto suggerisce un’evoluzione del rapporto tra utente e AI mobile, sempre più orientato a un uso quotidiano e immediato.
