Thinking Machines è il nome della startup fondata da Mira Murati, ex figura di spicco di OpenAI, e potrebbe rappresentare uno di quei progetti destinati a ridefinire le regole del gioco nell’intelligenza artificiale conversazionale. L’annuncio ufficiale arrivato nei giorni scorsi ha acceso i riflettori su un concetto che, a dirla tutta, sembra quasi ovvio una volta spiegato. Eppure nessuno, finora, è riuscito davvero a metterlo in pratica.
Il punto di partenza è questo: quando si interagisce con i modelli AI attuali, lo schema è sempre lo stesso. Si scrive qualcosa, si preme invio, si aspetta la risposta. Il modello, nel frattempo, è completamente cieco e sordo. Non percepisce esitazioni, non vede cosa sta succedendo intorno, non registra nulla fino a quando non riceve l’input completo. Thinking Machines descrive questo limite con un paragone piuttosto efficace: è come provare a risolvere un problema complesso scambiandosi email, invece di parlarne faccia a faccia. Manca il contesto, manca la reattività, manca tutto quello che rende una conversazione reale davvero utile.
Ed è proprio qui che entrano in scena quelli che l’azienda ha battezzato “interaction models”. L’idea, ambiziosa ma concreta nelle sue implicazioni, è costruire sistemi capaci di ascoltare, osservare e ragionare in modo continuo. Niente più turni, niente più attese. L’AI dovrebbe comportarsi più come un collaboratore umano seduto a fianco, che coglie sfumature, reagisce al volo e interviene quando serve.
Le prime dimostrazioni: traduzione in tempo reale e correzione della postura
Thinking Machines non si è limitata alle dichiarazioni di principio. Sono stati condivisi alcuni video dimostrativi che mostrano il modello al lavoro su scenari diversi. In uno di questi, il sistema ascolta la lettura di una storia e individua automaticamente ogni volta che viene nominato un animale. In un altro, traduce il parlato in tempo reale, sovrapponendo la traduzione al flusso vocale originale senza interruzioni. Il terzo esempio è probabilmente il più sorprendente: attraverso la videocamera, il modello rileva quando chi lo usa sta assumendo una postura scorretta e lo avvisa immediatamente.
Sono dimostrazioni volutamente semplici, quasi da manuale, ma fanno capire bene dove si vuole arrivare. L’AI smette di essere uno strumento da interrogare ogni volta e diventa qualcosa di più simile a un assistente che osserva, ascolta e agisce in autonomia quando ce n’è bisogno.
Talenti in fuga e una visione che non cambia
Il lancio di questa tecnologia arriva in un momento tutt’altro che semplice per la startup di Murati. Dal momento dell’apertura, Thinking Machines ha dovuto fare i conti con l’uscita di diversi profili chiave dal proprio organico: alcuni ingegneri sono finiti da Meta, altri hanno addirittura fatto ritorno proprio a OpenAI, da dove erano partiti. In un settore dove il talento è la risorsa più rara e contesa in assoluto, perdere persone così pesa parecchio.
Nonostante questo, Murati sembra non voler deviare dalla rotta tracciata. La sua scommessa è che il futuro dell’intelligenza artificiale non stia nell’ennesimo chatbot un po’ più veloce o un po’ più preciso, ma in un cambio radicale del modo in cui esseri umani e macchine interagiscono. Meno scambi a turni, più presenza continua e naturale.
Per ora, gli interaction models non sono disponibili al pubblico. Thinking Machines ha fatto sapere che aprirà un’anteprima di ricerca limitata nei prossimi mesi, con l’obiettivo di un rilascio più ampio entro la fine del 2026.
