Il vero problema non è più convincere chi lavora a usare l’intelligenza artificiale, ma capire se le aziende italiane sapranno andare oltre il semplice prompt. Secondo il Work Trend Index 2026 di Microsoft, la ricerca annuale che analizza l’evoluzione del lavoro attraverso i dati di utilizzo di Microsoft 365 e un sondaggio su 20mila lavoratori in dieci paesi (Italia compresa), la nuova fase dell’AI in azienda comincia esattamente dove finisce la domanda fatta al chatbot. Non si parla più soltanto di chiedere qualcosa a una macchina, ma di ridisegnare il lavoro attorno agli agenti: sistemi capaci di eseguire attività, coordinare passaggi, muoversi dentro flussi complessi e affiancare le persone non solo nel produrre risultati, ma nell’organizzazione stessa del lavoro.
Per mesi si è raccontata l’intelligenza artificiale al lavoro come una questione di adozione: chi la usa, chi no, chi la teme, chi la considera una scorciatoia per scrivere email o riassumere riunioni. Il report sposta però tutto su un piano diverso. Non conta più stabilire se i lavoratori usano l’AI, ma come la usano. E soprattutto se le aziende sono pronte a trasformare quegli usi individuali in processi, regole e nuovi modelli organizzativi.
Guardando ai numeri italiani, molti lavoratori hanno già iniziato a sperimentare. Il 55% degli utenti di intelligenza artificiale nel nostro paese dichiara di produrre oggi lavori che un anno fa non avrebbe saputo affrontare. La percentuale sale al 76% tra i profili più avanzati. Dall’altra parte, solo il 10% degli utenti italiani rientra tra i cosiddetti Frontier Professionals, contro il 16% della media globale. Sono quei lavoratori che non si limitano a usare l’intelligenza artificiale per scrivere o riassumere, ma la impiegano per ripensare flussi di lavoro, orchestrare attività complesse e costruire pratiche replicabili. Il dato non racconta un paese fermo, racconta qualcosa di più sottile: un paese in cui il singolo lavoratore corre più veloce dell’organizzazione che dovrebbe sostenerlo.
Quattro modi di lavorare con l’AI e il ruolo delle aziende
Il report definisce una mappa per ordinare i quattro modi di lavorare con l’intelligenza artificiale. Il primo è l’asking: domande rapide, richieste puntuali, piccole trasformazioni. Cercare una data, chiarire un concetto, riscrivere una frase. È l’uso più vicino all’idea comune di chatbot. Il secondo è l’exploration: provare cosa l’AI può fare, testare un flusso di lavoro, capire i limiti di un agente prima di affidargli un compito reale. Il terzo è la delegation: l’umano imposta la direzione, l’agente esegue. Qui il salto è netto perché non si tratta più di chiedere una frase migliore, ma di affidare all’intelligenza artificiale attività strutturate. Il quarto è la collaboration: umano e AI lavorano insieme, affinando risultati in più passaggi, dove tono, contesto e giudizio umano restano determinanti.
I profili più avanzati non sono quelli che collaborano sempre con l’intelligenza artificiale o delegano tutto. Sono quelli che sanno scegliere la modalità giusta per ogni attività. Per alcune operazioni basta chiedere. Per altre bisogna esplorare. Per altre ancora conviene delegare. E nei casi più delicati serve collaborazione stretta, perché il valore umano non sta nell’eseguire ogni passaggio, ma nel dare direzione, interpretare, correggere, decidere.
Il Work Trend Index prova anche a capire da cosa dipenda l’impatto concreto dell’intelligenza artificiale. Il risultato è piuttosto chiaro: l’ambiente aziendale conta molto più dell’iniziativa personale. Gli elementi organizzativi (cultura aziendale, supporto dei manager, formazione, regole d’uso e sistemi di incentivo) pesano per il 67%. Quelli individuali, come motivazione e familiarità con gli strumenti, si fermano al 32%. L’AI funziona davvero quando l’azienda crea le condizioni per usarla bene, non quando lascia tutto alla buona volontà dei singoli.
Il paradosso della trasformazione e la nuova competenza: giudicare l’AI
Il report parla di un vero e proprio Transformation Paradox: i lavoratori sono pronti, le organizzazioni molto meno. A livello globale solo un utente su quattro dichiara di avere una leadership chiaramente allineata sulla strategia legata all’intelligenza artificiale. In Italia il dato scende al 18%. Un numero che racconta più di una generica lentezza manageriale: dice che l’AI è entrata nelle agende e nei piani di formazione, ma non sempre nella catena delle decisioni reali. I lavoratori sperimentano, i manager osservano, i vertici dichiarano attenzione. Però tra la sperimentazione e la trasformazione resta un tratto scoperto, quello in cui bisogna cambiare metriche, responsabilità, ruoli e incentivi.
In Italia il 63% degli utenti di intelligenza artificiale teme di restare indietro se non impara rapidamente ad adattarsi. Allo stesso tempo, il 43% dice che è più sicuro concentrarsi sugli obiettivi correnti che ridisegnare il lavoro con l’AI. Da una parte la pressione del cambiamento, dall’altra un’organizzazione che continua spesso a misurare e premiare secondo logiche precedenti. Solo l’11% degli utenti italiani dice di sentirsi premiato per la reinvenzione del lavoro con l’intelligenza artificiale, anche quando il risultato non è immediato.
E poi c’è un equivoco da sciogliere. L’intelligenza artificiale non elimina il lavoro umano, ne cambia il punto di applicazione. Se gli agenti possono eseguire una quota crescente di attività, il valore delle persone si sposta verso direzione, giudizio, controllo qualità e responsabilità sull’esito. A livello globale gli utenti indicano come competenze più importanti il controllo qualità dell’output (50%) e il pensiero critico (46%). In Italia i valori scendono al 39% e al 36%: un segnale da leggere non come mancanza di capacità, ma come minore consapevolezza del fatto che, nell’era degli agenti, il lavoro umano si sposta sempre di più dalla produzione alla verifica, dalla prima bozza al giudizio. Se l’AI produce una bozza, il problema non è più soltanto saperla ottenere. È capire se quella bozza è buona, corretta, incompleta o semplicemente non all’altezza. Se ha inventato una fonte. Se è formalmente impeccabile ma strategicamente sbagliata. Se un agente, lasciato procedere, sta ottimizzando l’attività sbagliata.
