Immagina di poter dire a un’intelligenza artificiale: “Fai alzare il braccio destro più lentamente”, e vedere un avatar muoversi esattamente come hai chiesto. Niente interfacce complicate, niente programmazione avanzata: solo parole. È questo il tipo di magia tech che sta uscendo dai laboratori dell’Istituto di Intelligenza Artificiale dell’Università di Pechino, dove un team di ricercatori ha messo a punto qualcosa che potrebbe rivoluzionare l’animazione, la VR, il gaming e non solo.
Controlla i movimenti degli avatar con la voce
Si chiama MotionCutMix, ed è una tecnica di addestramento per AI che, in tandem con un modello chiamato MotionReFit, permette a un algoritmo di modificare i movimenti umani in 3D partendo da semplici istruzioni testuali. Sì, hai capito bene: puoi prendere un movimento già esistente e “riscriverlo”, proprio come se stessi editando un documento Word.
Il punto forte? Non servono enormi database super annotati. MotionCutMix è in grado di creare nuovi esempi di allenamento praticamente da solo, combinando pezzi di movimenti diversi e levigando tutto con transizioni morbide. Niente robot con movimenti a scatti, ma avatar che sembrano davvero muoversi come persone vere. Il sistema è capace di modificare singole parti del corpo (un braccio, una gamba, il torso) oppure intervenire sul timing, rendendo il gesto più lento, veloce, controllato… come vuoi tu.
Nel mondo della creatività digitale, dove animatori e game designer passano ore a sistemare ogni piccolo dettaglio, una tecnologia del genere è oro. Ma le applicazioni non finiscono lì: si parla di simulazioni per la sanità, la formazione nei contesti di emergenza, lo sport, la riabilitazione. Tutto ciò che ha bisogno di un corpo digitale che si muova in modo credibile.
Il lavoro è stato presentato alla CVPR 2025 e pubblicato su arXiv. Insomma, siamo davanti a una svolta: perché creare tutto da zero quando puoi dire all’AI cosa vuoi… e lei lo fa muovere?
