
Google Gemini
Google Gemini sta testando una nuova funzione che consente di riconoscere le canzoni ascoltate in tempo reale. L’integrazione del riconoscimento musicale all’interno dell’assistente basato su intelligenza artificiale potrebbe rappresentare un passo importante per l’espansione delle sue capacità pratiche. La novità è stata individuata in fase di sperimentazione su dispositivi Android.
Riconoscimento musicale con Gemini: come funziona
Il funzionamento della nuova opzione è simile a quello di servizi noti come Shazam o Now Playing. Durante il test, un utente ha avviato una conversazione con Gemini, chiedendo di identificare una canzone in riproduzione. L’assistente ha ascoltato l’audio ambientale e ha mostrato il risultato del brano identificato, proprio come farebbe una qualsiasi app di riconoscimento musicale.
Secondo le informazioni attuali, la funzione non è ancora disponibile per tutti, ma sembra essere in fase di rollout limitato. Non è chiaro se Google stia effettuando test A/B oppure se si tratti di una funzione abilitata solo in determinate regioni o configurazioni. Al momento, il comportamento è stato osservato solo su alcuni dispositivi con Android e l’app Gemini aggiornata.
Con questo aggiornamento, Gemini amplia le sue capacità di interazione con il mondo reale. Oltre a rispondere a domande testuali e contestuali, l’assistente inizia a gestire anche input audio ambientali, un passo che avvicina sempre di più l’intelligenza artificiale all’assistenza personale concreta.
L’integrazione del riconoscimento musicale arricchisce una funzione già presente nell’ecosistema Google. Il riconoscimento automatico delle canzoni è disponibile da anni nella schermata di blocco dei Pixel tramite “Now Playing”, e tramite la Ricerca Google con l’opzione “Che canzone è?”. L’inserimento diretto nel modello Gemini punta però a centralizzare le funzioni in un unico assistente AI.
Nessun intervento manuale
Durante il test osservato, l’attivazione della funzione non ha richiesto l’avvio di un’app separata o di una modalità speciale. L’utente ha semplicemente chiesto a Gemini di identificare la musica, e l’assistente ha avviato l’ascolto dell’audio. Il processo è stato rapido e senza bisogno di ulteriori conferme, segno che l’integrazione è profonda nel sistema.
La semplicità operativa è uno degli aspetti chiave per Google, che sta cercando di rendere Gemini sempre più intuitivo e accessibile, anche per utenti non esperti. L’uso del linguaggio naturale e la gestione del contesto stanno diventando centrali nell’evoluzione dell’assistente.
Non ci sono indicazioni ufficiali sul rilascio globale di questa funzione. Come accade spesso con le nuove opzioni AI, Google potrebbe testare il riconoscimento musicale in un numero limitato di paesi o dispositivi, prima di un eventuale rollout completo. L’adozione dipenderà probabilmente dalla risposta degli utenti e dall’accuratezza dei risultati.
Se integrata in modo stabile, la funzione potrebbe sostituire app dedicate al riconoscimento musicale, almeno per gli utenti che già utilizzano Gemini. L’obiettivo a lungo termine resta quello di centralizzare più strumenti possibili all’interno dell’assistente, riducendo la necessità di app esterne.
