Anthropic ha svelato una funzione che potrebbe cambiare il modo in cui gli agenti AI apprendono dai propri sbagli. Si chiama “dreaming”, ed è stata presentata durante la seconda edizione della conferenza Code with Claude, tenutasi a San Francisco il 6 maggio 2026. Il concetto è tanto semplice da spiegare quanto ambizioso nelle sue implicazioni: gli agenti rivedono le proprie sessioni passate, estraggono pattern dagli errori commessi e migliorano le prestazioni tra un compito e l’altro. In pratica, le macchine imparano a “sognare”.
Come funziona il dreaming di Anthropic
Bisogna partire da un presupposto. Fino a oggi, il ciclo di apprendimento di un agente AI seguiva uno schema piuttosto rigido: esegui il compito, ricevi un feedback, aggiorna i parametri. Punto. Il dreaming aggiunge un passaggio in più, quasi riflessivo. Dopo aver completato una sessione di lavoro, l’agente non si limita a passare oltre. Si ferma, riesamina quello che ha fatto, individua dove ha sbagliato e costruisce delle strategie correttive da applicare nelle sessioni successive. È un po’ come quando qualcuno ripensa alla giornata prima di addormentarsi, ripercorrendo mentalmente ciò che è andato storto e ragionando su come evitarlo la prossima volta.
La cosa interessante è che questo processo non avviene in tempo reale, durante l’esecuzione del compito. Avviene dopo, in una fase separata. Da qui il nome evocativo scelto da Anthropic: dreaming, appunto. L’agente AI analizza i log delle proprie interazioni passate, li confronta con gli esiti ottenuti e ne ricava delle lezioni. Non si tratta di semplice memorizzazione, ma di un’estrazione attiva di schemi ricorrenti. Se un errore si ripresenta in contesti diversi, il sistema lo identifica come un pattern e lavora per correggerlo alla radice.
In che senso “sognare”?
Il punto centrale è questo: gli agenti AI attuali tendono a ripetere gli stessi errori, soprattutto quando affrontano compiti complessi e articolati. Mancano, per così dire, di memoria operativa tra una sessione e l’altra. Il dreaming prova a colmare esattamente questa lacuna. Dando all’agente la possibilità di riflettere sulle proprie performance passate, Anthropic introduce un meccanismo di auto-miglioramento che non dipende esclusivamente dall’intervento umano o da nuovi cicli di addestramento.
È una differenza sottile ma significativa. Invece di aspettare che qualcuno corregga il modello dall’esterno, l’agente diventa in parte responsabile della propria evoluzione. Ovviamente non si parla di coscienza o di vera introspezione, ma di un processo computazionale che simula un comportamento riflessivo. E già questo, nel panorama attuale dell’intelligenza artificiale, rappresenta un passo avanti notevole.
