L’AI di Meta è davvero in grado di tradurre i pensieri in parole? Dopo un ictus o una malattia al cervello, molte persone si trovano ad affrontare la perdita della capacità di parlare. Tuttavia, negli ultimi due anni, sono stati compiuti progressi significativi nello sviluppo di una protesi neurale, un dispositivo impiantato sulla corteccia motoria per controllare l’interfaccia di un computer mediante intelligenza artificiale. Nonostante i progressi, questa soluzione richiede ancora un intervento chirurgico al cervello, il che comporta inevitabilmente rischi. Jean Remi King, un ricercatore presso Meta, ha sottolineato questo punto, portando alla luce la necessità di esplorare alternative meno invasive.

Il team di ricerca, partendo dalla premessa della protesi neurale e dopo aver esplorato il tema della coscienza nelle intelligenze artificiali, ha intrapreso uno sforzo mirato a sviluppare un metodo alternativo e soprattutto non invasivo che permette di raggiungere lo stesso obiettivo. Invece di utilizzare elettrodi intracranici, hanno adottato la magnetoencefalografia, una tecnica di imaging non invasiva in grado di catturare più di mille istantanee dell’attività cerebrale al secondo.

L’AI Meta che traduce i pensieri in parole

L’approccio innovativo del team si basa sull’addestramento di un sistema di intelligenza artificiale che decodifica i segnali cerebrali registrati in segmenti vocali comprensibili. Questo sistema è composto da due moduli principali: il “modulo cerebrale” e il “modulo vocale”. Il primo estrae informazioni dall’attività cerebrale utilizzando la magnetoencefalografia, mentre il secondo identifica le rappresentazioni vocali da decodificare, contribuendo così a dedurre ciò che il soggetto sta ascoltando.

Lo studio ha coinvolto 175 partecipanti, ai quali è stato chiesto di ascoltare storie e frasi mentre la loro attività cerebrale veniva registrata. Analizzando tre secondi di segnali magnetoencefalografici, il team ha ottenuto risultati sorprendenti. La precisione media nella decodifica dei segmenti vocali è stata del 41% su oltre 1.000 possibilità tra i partecipanti, con alcuni raggiungendo una precisione dell’80%.

Jean Remi King ha espresso sorpresa per le prestazioni di decodifica ottenute, sottolineando come nella maggior parte dei casi sia possibile recuperare ciò che i partecipanti stanno percependo. Anche in presenza di errori nel decodificatore, essi tendono a essere semanticamente simili alla frase target. Questi risultati aprono nuove prospettive per la comunicazione con individui che hanno perso la capacità di parlare a causa di condizioni neurologiche. Inoltre, offre una via non invasiva e potenzialmente più sicura rispetto alle protesi neurali attualmente disponibili.

Articolo precedenteAmazon: arriva l’AI Titan Image Generator
Articolo successivoOfferte ho. Mobile con 300 GIGA per distruggere TIM