L’espansione delle intelligenze artificiali autonome solleva nuove domande sul loro ruolo nella vita quotidiana e nelle interazioni complesse. Uno degli aspetti più delicati riguarda la capacità di tali sistemi di prendere decisioni, cooperare e negoziare senza supervisione umana. Recenti esperimenti condotti da Microsoft insieme all’Arizona State University hanno cercato di esplorare proprio tali limiti. Ciò utilizzando un ambiente simulato chiamato Magnetic Marketplace. Nel test, diversi gruppi di agenti cliente dovevano ordinare pasti da ristoranti virtuali gestiti da altri agenti aziendali. L’idea era che ognuno di quest’ultimi potesse valutare offerte, negoziare prezzi e completare le transazioni nel modo più efficiente possibile. Eppure, i risultati hanno mostrato una gestione delle scelte problematica. Molti agenti clienti hanno manifestato indecisione, difficoltà nel coordinarsi con altri agenti e una notevole suscettibilità a essere influenzati, acquistando prodotti non necessari o più costosi.
Microsoft: ecco cosa non ha funzionato con gli agenti AI
Il test ha coinvolto complessivamente 100 agenti cliente e 300 agenti aziendali basati su modelli avanzati. Come GPT-4o, GPT-5 e Gemini-2.5-Flash. Secondo Ece Kamar, direttrice del laboratorio AI Frontiers di Microsoft Research, l’esperimento non mirava a evidenziare un fallimento, quanto a comprendere meglio i limiti della tecnologia attuale. La ricercatrice ha sottolineato che osservare le interazioni tra agenti autonomi è fondamentale per prevedere come tali sistemi potrebbero modificare il modo in cui si prendono decisioni e si negozia.
Uno dei problemi principali emersi riguarda la gestione di stimoli multipli. Più alternative venivano presentate agli agenti, maggiore era la confusione e minore l’efficacia della loro azione. Anche compiti apparentemente semplici hanno causato blocchi decisionali. Un’altra criticità riguarda la collaborazione tra agenti. I modelli faticano a stabilire ruoli e priorità in modo autonomo e richiedono istruzioni estremamente dettagliate per ottenere risultati coerenti.
L’esperimento condotto da Microsoft evidenzia quindi come, nonostante i progressi, le AI autonome non sono ancora pronte a operare in scenari complessi senza supervisione umana. Allo stesso tempo, tali test offrono indicazioni preziose su come migliorare la resilienza decisionale e la cooperazione tra agenti. Elementi che saranno cruciali per definire il futuro delle intelligenze artificiali.
