Chiunque abbia usato un assistente virtuale lo sa bene: si parla, poi si aspetta, poi si ascolta. Uno schema che ricorda più lo scambio di messaggi scritti che una vera conversazione. È proprio questo il problema che Thinking Machines Lab vuole risolvere, introducendo un tipo di dialogo con l’AI che si avvicina davvero a quello tra esseri umani. La startup, fondata dall’ex direttrice tecnologica di OpenAI, Mira Murati, ha appena mostrato al mondo i suoi nuovi modelli di interazione vocale, e le premesse sono parecchio interessanti.
Oggi la maggior parte delle interazioni con gli assistenti basati su intelligenza artificiale funziona a turni rigidi. Si pronuncia una frase, l’algoritmo elabora, e solo dopo arriva la risposta. Le cosiddette Live Mode hanno provato ad ammorbidire questo schema, rendendo il dialogo un po’ più naturale, ma nel normale utilizzo quotidiano la sensazione di parlare con una macchina resta ancora piuttosto evidente. Thinking Machines Lab punta a scardinare del tutto questo meccanismo, proponendo uno scambio vocale che non sia solo più fluido rispetto a quello dei competitor, ma che funzioni così fin dall’inizio, in ogni modalità di utilizzo.
Il sistema full duplex e il modello TML Interaction Small
Il cuore della novità sta in quello che tecnicamente viene definito sistema full duplex. Detto in parole semplici, significa che il modello è capace di processare quello che l’utente dice mentre contemporaneamente sta già generando una risposta. L’AI, quindi, ascolta anche mentre parla, e questo apre una possibilità che finora era rimasta ai margini: la possibilità di interromperla, esattamente come si farebbe durante una telefonata tra due persone.
Il primo modello di questa nuova categoria si chiama TML Interaction Small, e i numeri che lo accompagnano fanno una certa impressione. Il tempo di reazione è stimato in circa 0,40 secondi, una velocità che ricalca fedelmente il ritmo del parlato umano. Per dare un’idea del valore di questo dato, si tratta di una reattività che supera nettamente quanto offerto finora dai principali prodotti sviluppati da colossi come Google o la stessa OpenAI. Non è un dettaglio da poco.
Un aspetto che vale la pena sottolineare è che questa interattività non nasce come funzione aggiuntiva da attivare in un secondo momento. È una caratteristica nativa del modello stesso, pensata così fin dalla progettazione. Thinking Machines Lab, in sostanza, non ha costruito un assistente vocale tradizionale per poi renderlo più reattivo con qualche aggiornamento. Ha progettato tutto partendo dall’idea che la conversazione debba funzionare come tra due persone, senza compromessi.
Quando sarà disponibile il nuovo modello di Thinking Machines
Per quanto i risultati dei test siano promettenti, bisogna tenere i piedi per terra. Al momento il modello si trova ancora in una fase di ricerca, e Thinking Machines Lab prevede di rilasciare un’anteprima limitata nei prossimi mesi. L’obiettivo dichiarato è quello di arrivare a una distribuzione più ampia entro la fine dell’anno, ma i tempi restano legati ai risultati che emergeranno dalle prime prove sul campo. Il progetto di Mira Murati e del suo team, comunque, segna un passo concreto verso un modello di dialogo con l’intelligenza artificiale che finalmente non costringa più a sopportare quei silenzi innaturali tra una frase e l’altra.

