
Ray-Ban Meta
Meta ha introdotto nuove funzionalità basate sull’intelligenza artificiale per migliorare l’accessibilità degli occhiali smart Ray-Ban Meta. L’aggiornamento, distribuito a partire da questa settimana, aggiunge strumenti di riconoscimento visivo in grado di descrivere ciò che l’utente ha davanti, con l’obiettivo di agevolare le persone ipovedenti o con disabilità visive. Le nuove funzioni sono già disponibili per chi partecipa al programma early access e saranno progressivamente estese a tutti gli utenti.
L’AI descrive oggetti e ambienti in tempo reale
Gli occhiali Ray-Ban Meta, dotati di fotocamera e assistente vocale, possono ora sfruttare modelli AI per descrivere scene, oggetti e testo nel campo visivo dell’utente. Basta chiedere “Cosa ho davanti?” perché l’assistente fornisca una risposta vocale in tempo reale, identificando oggetti comuni, ambienti o situazioni.
Questa capacità è resa possibile dalla visione artificiale integrata e dall’elaborazione AI, che avviene tramite i server Meta. Oltre agli oggetti, gli occhiali sono in grado di leggere testi scritti come cartelli, etichette o menu, fornendo così un aiuto concreto nella vita quotidiana, ad esempio nei negozi, nei trasporti o durante la lettura di documenti.
Secondo Meta, l’obiettivo dell’aggiornamento è quello di rendere le tecnologie indossabili più inclusive. L’uso combinato di fotocamera, microfono e intelligenza artificiale generativa consente un’interazione continua tra utente e ambiente, migliorando la percezione spaziale per chi ha difficoltà visive.
Le nuove funzionalità rappresentano un passo importante verso un uso dell’AI orientato all’assistenza personale. La descrizione delle immagini è una delle applicazioni più complesse della visione artificiale, ma Meta ha reso l’esperienza il più possibile naturale e vocale, sfruttando l’interfaccia audio già integrata nei Ray-Ban Meta.
Attualmente le nuove funzioni AI sono disponibili solo per chi ha attivato l’early access all’interno dell’app Meta View, ma l’azienda ha confermato che il rollout sarà progressivamente esteso a tutti i modelli Ray-Ban Meta nelle prossime settimane. L’assistente AI continuerà a evolversi con nuove capacità, grazie al miglioramento dei modelli linguistici e visivi.
Per utilizzare il riconoscimento visivo è necessario essere connessi alla rete e autorizzare l’uso della fotocamera per l’elaborazione dell’immagine. Le informazioni elaborate non vengono salvate sui server, ma usate solo per fornire risposte istantanee all’utente, secondo Meta.
Con l’introduzione delle funzioni di descrizione visiva e riconoscimento oggetti, gli occhiali smart Ray-Ban Meta si avvicinano al concetto di assistente personale AI sempre attivo, capace di interpretare l’ambiente circostante e offrire supporto accessibile. Il progetto riflette l’impegno di Meta nello sviluppare tecnologie indossabili inclusive, integrando AI generativa e visione artificiale in un dispositivo pensato per l’uso quotidiano.
