Siamo abituati a interagire con la tecnologia usando le mani, la voce, a volte persino un cenno del capo. Ma se vi dicessi che il futuro della realtà mista, quella rappresentata da visori all’avanguardia come l’Apple Vision Pro, potrebbe passare direttamente dal nostro pensiero? Non stiamo parlando di fantascienza, ma di una prospettiva incredibilmente concreta che sta prendendo forma proprio ora, senza bisogno di bisturi o operazioni chirurgiche.
Accessibilità neurale: la realtà mista diventa interattiva con la mente
La rivoluzione è guidata da Cognixion, un’azienda californiana specializzata in interfacce cervello-computer (BCI), che ha appena lanciato un programma di ricerca in collaborazione con le funzioni di accessibilità già integrate nel visore Apple. Il loro obiettivo è tanto ambizioso quanto etico: rendere la realtà mista e tutte le sue applicazioni, dalla comunicazione all’intrattenimento, totalmente accessibili anche a chi convive con paralisi o gravi difficoltà motorie. Pensiamo a chi ha avuto un ictus, a chi soffre di Sclerosi Laterale Amiotrofica (ALS) o a chi ha lesioni spinali: persone per le quali il minimo movimento è una sfida, ma la cui mente è perfettamente lucida e desiderosa di interagire.
Cognixion vuole tagliare fuori i cavi e gli interventi invasivi, puntando su una soluzione completamente esterna. Il loro sistema sfrutterà una combinazione geniale di sensori non invasivi e intelligenza artificiale. In pratica, il sistema non farà altro che intercettare i segnali sottili che il nostro corpo e la nostra mente già inviano: i movimenti oculari, la durata dello sguardo e, soprattutto, le impercettibili variazioni dell’attività cerebrale. Algoritmi di machine learning super-sofisticati interpreteranno questi segnali, coordinandoli con funzionalità del Vision Pro come il “Gaze Tracking” e il “Dwell Control” – che tracciano dove guardiamo e per quanto tempo.
Il succo è questo: un’intenzione, un pensiero focalizzato su un’icona o un elemento visuale all’interno del visore, potrebbe bastare per selezionarlo o attivarlo. Addio touch, addio comandi vocali – il dialogo avverrebbe in modo naturale, come se il pensiero stesso fosse la nostra interfaccia.
Se i test clinici daranno i risultati sperati, potremmo assistere alla nascita di una nuova forma di comunicazione assistiva che restituirebbe una fetta enorme di autonomia e dignità a milioni di persone. E i numeri non sono da poco: Cognixion stima che solo negli Stati Uniti, più di 14 milioni di individui convivono con disabilità motorie croniche, con circa un milione che si aggiunge ogni anno. È una popolazione enorme che merita di non essere esclusa dalla rivoluzione della spatial computing.
Il CEO di Cognixion, Andreas Forsland, ha giustamente sottolineato come Apple abbia stabilito uno standard globale nell’accessibilità, e il Vision Pro porta questo impegno nello spazio del calcolo spaziale. Lo studio è ufficialmente partito, inserito nel registro dei trial clinici statunitensi, e proseguirà fino all’aprile 2026. I volontari interessati possono già candidarsi per partecipare a questa sperimentazione che analizzerà l’esperienza e il comfort di questa interazione neurale. E anche se Apple non partecipa attivamente, è noto che la compagnia ha già depositato brevetti che ipotizzano l’uso dei sensori del Vision Pro per leggere le onde cerebrali.
Insomma, il futuro in cui potremo “pensare” per agire nella realtà aumentata non è un lontano miraggio, ma un progetto in fase avanzata che promette di cambiare radicalmente non solo il modo in cui usiamo la tecnologia, ma soprattutto chi può usarla.
