Andrea Pignataro, indicato da alcune classifiche internazionali come l’uomo più ricco d’Italia, mette in guardia sui rischi concreti che la rivoluzione digitale porta con sé e soprattutto in merito all’intelligenza artificiale. Non si tratta di un allarme moralista, ma di un ragionamento sul futuro del lavoro, delle competenze e del controllo sulle informazioni aziendali.
L’avvertimento del fondatore di Ion sull’intelligenza artificiale
Il saggio intitolato “The Wrong Apocalypse” è un esercizio di realismo. Pignataro osserva come la IA non stia solo automatizzando compiti ripetitivi: rischia di assorbire conoscenze specifiche che oggi risiedono nei cervelli dei dipendenti, trasferendo quel prezioso know-how nei modelli che poi vengono addestrati e affittati come servizio. In pratica, professionisti esperti potrebbero ritrovarsi sovrascritti da sistemi che imitano decisioni e procedure, mentre le aziende, pure quelle che li hanno formati, si troverebbero a rinunciare al controllo su come quelle competenze vengono usate e replicare. La denuncia è diretta: non è solo questione di perdita di posti di lavoro, ma di trasferimento di valore e autonomia dal fattore umano alla piattaforma tecnologica.
Da qui scaturisce un altro nodo: la proprietà intellettuale. Quando un algoritmo impara da processi interni e migliori pratiche aziendali, a chi appartiene quel sapere? Si apre un problema sia legale sia etico, soprattutto per settori in cui il vantaggio competitivo si fonda su conoscenze difficili da codificare. La posizione di Pignataro non è una condanna aprioristica della tecnologia: è la richiesta di riconoscere che la diffusione dell’intelligenza artificiale può cambiare le regole del gioco più profondamente di quanto si immagini.
Impatto sul lavoro e scelte possibili con l’AI
Il rischio è evidente per categorie di professionisti che lavorano su pattern e casi ripetuti: consulenti, analisti, avvocati che usano precedenti, oppure ruoli operativi che accumulano esperienza tacita. Quando questi processi vengono “insegnati” a un sistema, la competenza si sposta. Possibile risultato: compressione dei ruoli tradizionali, nascita di nuovi profili focalizzati sulla sorveglianza, la governance e l’addestramento dei modelli, e una ridefinizione radicale della carriera professionale.
Le contromisure non sono misteriose ma richiedono decisioni strategiche. Occorre mettere in campo regole chiare sulla proprietà dei dati e del sapere aziendale, sviluppare standard di audit per i sistemi di machine learning, e investire in riqualificazione continua. Serve anche un approccio regolatorio che obblighi trasparenza e limiti l’appropriazione incontrollata di competenze da parte di piattaforme esterne. Infine, può essere utile pensare a modelli ibridi in cui l’IA amplifica il lavoro umano senza sostituirne la responsabilità decisionale, preservando così valore e dignità professionale.
