A quanto pare l’incontro tra l’intelligenza artificiale e il mondo del lavoro non sempre fruttuoso come tutti sperano, a scoprire sulle proprie spalle questo disfunzionale binomio è stata recentemente Deloitte, la società infatti ha dovuto rimborsare un pagamento ricevuto dal governo australiano dopo aver completato uno studio commissionato proprio da quest’ultimo tramite l’intelligenza artificiale che però poi si è rivelato pieno di errori anche abbastanza pacchiani, il report in questione era costato 400.000 € e conteneva al proprio interno dati completamente inventati.
Il fatto controverso
Nello specifico, lo studio condotto da Deloitte si intitolava Targeted Compliance Framework Assurance Review, ed era stato commissionato dal Dipartimento per l’Occupazione e le Relazioni sul Lavoro, quest’ultimo mirava ad analizzare l’efficacia di un nuovo sistema informatico progettato per analizzare e sanzionare le richieste fasulle di sostegni statali.
La società dunque ha portato avanti questo studio, il quale però una volta completato si è dimostrato pieno di errori anche abbastanza gravi, nello specifico alcuni elementi come dati o pubblicazioni erano completamente inventati e dunque inesistenti, ad accorgersi di questo errore non è stato il governo stesso, bensì un gruppo di ricercatori dell’Università di Sydney, all’interno dello studio addirittura venivano attribuite alcune pubblicazioni ad una docente universitaria che però quest’ultima non aveva mai fatto con il rischio di danneggiarle la reputazione.
Nel frattempo, la società ha ammesso di aver utilizzato un modello di intelligenza artificiale per rifinire la parte dell’analisi tecnica del dossier, facendo riferimento nello specifico a GPT-4o fornita da Microsoft Azure, il quale però non si è limitato al compito assegnatogli ma si è spinto decisamente oltre, ecco che dunque Deloitte ha provveduto immediatamente a correggere il report stilato e a restituire l’ultima tranches di pagamento al governo australiano sottoforma di rimborso.
Si tratta sicuramente di un caso emblematico che mostra come l’intelligenza artificiale possa essere un grande alleato, ma allo stesso tempo attualmente abbia bisogno di una supervisione umana, onde evitare situazioni come questa.
