Android
Google introduce nuove funzionalità per i sottotitoli in tempo reale su Android, rendendoli più espressivi e informativi. L’aggiornamento è stato reso possibile grazie ai progressi dell’Android System Intelligence, il sistema che gestisce le funzionalità intelligenti di trascrizione e analisi audio su smartphone e tablet del sistema operativo.
Più accessibilità e chiarezza per tutti
I sottotitoli in tempo reale, noti anche come Live Caption, sono stati originariamente sviluppati per migliorare l’accessibilità dei contenuti audio e video alle persone con disabilità uditive. Con l’ultimo aggiornamento, Google ha introdotto una serie di miglioramenti sostanziali che rendono la fruizione più naturale e coinvolgente, grazie all’aggiunta di espressività vocale e indicazioni sui suoni ambientali.
Il sistema è ora in grado di distinguere e rappresentare meglio il tono e l’intensità dell’eloquio, inserendo nei sottotitoli indicazioni che riflettono emozioni, intonazioni e cambiamenti nella voce. Questo consente una comprensione più completa del contesto, anche senza audio.
Oltre alle parole pronunciate, i nuovi sottotitoli includono anche indicazioni sui suoni ambientali rilevati durante la riproduzione, come applausi, risate, rumori di sottofondo, o effetti sonori rilevanti. Questa funzionalità arricchisce l’esperienza utente, specialmente in contesti in cui il contenuto dipende fortemente dagli effetti sonori.
Grazie a questa novità, le persone non solo possono leggere ciò che viene detto, ma anche comprendere meglio ciò che accade attorno ai dialoghi, migliorando la fruizione complessiva dei contenuti, soprattutto in assenza di audio.
Google chiama questa nuova funzione Live Caption Expressive. Si tratta di una versione avanzata del sistema di trascrizione, capace di integrare inflessioni vocali, pause drammatiche, urla, bisbigli e altre sfumature del parlato nel testo visualizzato. Questa miglioria è particolarmente utile per i video emozionali, i podcast, e i filmati dove il tono di voce è centrale.
L’algoritmo riesce a catturare il ritmo e l’intensità del discorso, traducendoli in punteggiatura dinamica e annotazioni di contesto. I sottotitoli espressivi sono progettati per offrire una resa testuale il più possibile simile all’esperienza sonora originale.
Le nuove funzionalità dei sottotitoli in tempo reale sono già in fase di distribuzione su alcuni dispositivi Android selezionati, con il supporto iniziale previsto per smartphone Pixel e altri modelli aggiornati alle ultime versioni di Android 14 e successive. Google prevede di estendere gradualmente la compatibilità a ulteriori dispositivi, mantenendo il supporto multilingue già introdotto nelle versioni precedenti.
L’attivazione delle funzioni avanzate avviene tramite l’Android System Intelligence, il motore che alimenta anche altre feature come la scrittura predittiva, la trascrizione delle chiamate e la gestione intelligente delle notifiche. Non è richiesta una connessione Internet costante, grazie all’elaborazione on-device che preserva la privacy dell’utente.