News

Un’intelligenza artificiale made in Italy capace di parlare in italiano tramite la lingua dei segni

Grazie all’Intelligenza Artificiale è nato un nuovo assistente virtuale che consente ai cittadini sordi di accedere in autonomia ad informazioni e servizi.

L’Intelligenza Artificiale aiuta a varcare un altro confine grazie al primo ‘umano virtuale’ made in Italy capace di produrre e comprendere la lingua dei segni italiana. Si tratta di un assistente virtuale futuristico utile a promuovere una reale accessibilità per tutti i cittadini.

Dietro la sua realizzazione c’è la tecnologia di QuestIT, azienda made in Italy che, per l’occasione, ha stretto una partnership con l’Università di Siena e il Cnr. “La ricerca è alla base dell’innovazione e l’intelligenza artificiale sarà la freccia più potente del nostro arco per i prossimi anni” afferma Ernesto Di Iorio, CbEO di QuestIT.

QuestIT per l’occasione ha stretto una partnership strategica con il Santa Chiara Fab Lab dell’Università Toscana e con il Consiglio Nazionale delle Ricerche. “Per innovare nel presente serve molta ricerca e, soprattutto, la giusta tecnologia” continua Di Iorio.

Come è nato l’avatar italiano

L’amministratore delegato spiega che “per questo progetto abbiamo sfruttato le incredibili potenzialità dell’intelligenza artificiale per strutturare un avatar di ultima generazione che conosca perfettamente la lingua dei segni italiana. Grazie ad esso, valorizziamo l’accessibilità digitale e diamo la possibilità ai cittadini sordi di accedere in autonomia a informazioni e servizi offerti da enti e realtà locali come la Pubblica Amministrazione e le banche, ma i potenziali campi di applicazione sono innumerevoli: dall’organizzazione di appuntamenti in ospedali alla spiegazione di mostre o eventi culturali nei musei fino al chiarimento di argomenti o singoli concetti nelle scuole o nelle aule universitarie”.

Attualmente l’assistente virtuale può essere abbinato a siti web, applicazioni, sistemi proprietari e persino totem interattivi. Una volta che la persona in questione appare davanti allo schermo e inizia a interagire con i segni, vengono analizzate le espressioni facciali dell’individuo, così come i suoi movimenti, e risponde usando Lis. In questo modo è in grado di offrire una consulenza mirata ed efficace, a seconda del contesto di riferimento, ai clienti sordi. Ma non finisce qui, infatti sono previsti a breve una serie di processi utili al perfezionamento dell’umanoide stesso.

 

Condividi
Pubblicato da
Simone Paciocco