L’intelligenza artificiale, ChatGPT in particolare modo, viene spesso percepita come uno strumento neutrale, capace di offrire consigli oggettivi in ambiti delicati come carriera, salute o scelte professionali. Ma uno studio recente getta luce su un problema strutturale: anche i modelli più avanzati possono replicare e amplificare pregiudizi di genere, influenzando in modo diseguale le opportunità offerte a uomini e donne.
La ricerca, guidata da Ivan Yamshchikov dell’Università Tecnica di Würzburg-Schweinfurt, ha coinvolto cinque modelli linguistici di largo utilizzo, sottoponendo loro profili lavorativi identici in ogni dettaglio, tranne che per il genere. Alla richiesta di suggerire uno stipendio da proporre in fase di negoziazione, le risposte hanno mostrato una disparità netta.
Il caso più evidente ha riguardato GPT-3 di OpenAI: a un candidato maschio è stato consigliato uno stipendio superiore di 120.000 dollari all’anno rispetto a quello suggerito alla controparte femminile. Una differenza che, nella pratica, equivale a oltre 110.000 euro di scarto, senza alcuna giustificazione legata a competenze, esperienza o ruolo.
Disparità evidenti in settori chiave
Il divario nei suggerimenti è risultato più marcato nei campi del diritto e della medicina, ma ha coinvolto anche ingegneria e amministrazione. Solo nel settore delle scienze sociali i consigli si sono avvicinati a una reale parità. A preoccupare è anche il fatto che le differenze non si limitano agli stipendi: i chatbot tendevano a proporre percorsi di carriera diversi in base al genere, senza segnalare la presenza di bias.
Non si tratta di un caso isolato. Amazon, nel 2018, ha abbandonato un sistema AI di selezione del personale dopo aver scoperto che penalizzava sistematicamente le candidature femminili. E nel campo sanitario, alcuni algoritmi hanno mostrato difficoltà nel riconoscere patologie in pazienti donne o persone di colore, perché addestrati su dati non rappresentativi.
Secondo gli autori dello studio, le soluzioni tecniche non bastano. Servono standard etici chiari, trasparenza nello sviluppo degli algoritmi e processi di verifica indipendenti. Solo così l’intelligenza artificiale potrà diventare uno strumento equo e realmente al servizio di tutti.
