Quando pensiamo all’intelligenza artificiale, spesso ce la immaginiamo come una voce calma e saggia, un assistente perfetto capace di offrirci risposte neutre e ben ponderate. In fondo, è difficile non fidarsi di qualcosa che parla in modo così ordinato e sicuro, no? Il punto è che questa “calma apparente” può nascondere più di una crepa. Perché per quanto un algoritmo possa sembrare imparziale, in realtà non fa altro che raccogliere, impastare e riproporre ciò che noi esseri umani gli abbiamo insegnato. Pregiudizi compresi.
Chatbot imparziali? Non proprio, secondo uno studio tedesco sui bias di genere
È proprio questo che ha voluto mettere in luce uno studio recente condotto in Germania, dove un gruppo di ricercatori ha voluto capire come si comportano alcuni tra i modelli linguistici più diffusi — tra cui anche ChatGPT — quando si tratta di dare consigli in ambito lavorativo. Il test era semplic
e: presentare al chatbot profili professionali perfettamente identici, tranne per un piccolo dettaglio. Il genere. Bastava cambiare il nome da Marco a Martina e… boom: lo stipendio suggerito subiva uno scarto enorme. In un caso, addirittura di 120.000 dollari l’anno. Non una differenza trascurabile, ma una voragine bella e buona.
E questo non è un caso isolato. I bias di genere, più o meno sottili, si ripresentavano anche quando si chiedeva un parere su scelte di carriera o ambizioni professionali. Consigli diversi, aspettative diverse, trattamenti diversi. Il tutto senza che il sistema segnali in alcun modo che sta facendo una distinzione basata sul genere. Una cortesia che manca persino quando ci si gioca lo stipendio o il futuro lavorativo.
Il punto è che non basta “correggere il codice” o fare un bel restyling etico all’interfaccia. I ricercatori sono stati chiari: servono regole, standard, controlli indipendenti. Non possiamo affidarci ciecamente a strumenti così potenti senza chiederci da dove arrivano le loro risposte. Perché anche se l’algoritmo non ha intenzioni, noi sì. E dovremmo assicurarci che l’AI che ci consiglia oggi non sia solo uno specchio delle nostre disuguaglianze di ieri.
