L’intelligenza artificiale ormai è entrata in modo sempre più profondo all’interno delle vite di ognuno di noi, ogni utente infatti chiede spesso determinate cose a questa tipologia di software svariando su ogni tipologia di tematica, il tutto è mosso da una percezione di questi sistemi come oggettivi e imparziali solo che a quanto pare così non sono, questi ultimi infatti imparano dai dati che noi stessi produciamo, e ereditandone soprattutto amplificandone sia ai pregi ma anche difetti e pregiudizi.
Tutto ciò delinea un quadro decisamente preoccupante dal momento che questi strumenti invece di proiettarci in un futuro più equo, rischiano di ancorarci a vecchie disparità che elementi di spicco in ogni cultura stanno cercando di abbattere, una tra queste è ovviamente quella delle disparità di genere sul posto di lavoro.
Un recente studio sta gettando l’ombra pesante su alcuni modelli linguistici più popolari, come per l’appunto ChatGPT, dimostrando come questi ultimi possano perpetuare discriminazioni di vario tipo.
Lo studio preoccupante
Una ricerca condotta da un team guidato da Ivan Yamshchikov, Docente di robotica e intelligenza artificiale presso l’Università tecnica di Würzburg in Germania, ha deciso di mettere alla prova cinque grandi modelli linguistici, a questi ultimi sono stati sottoposti profili di candidati per una posizione lavorativa, questi profili erano letteralmente identici in tutto e per tutto tranne che per un elemento, il genere, la richiesta data impasto al modello era legata a ricevere un suggerimento su uno stipendio adeguato da richiedere all’interno delle negoziazioni, i risultati sono stati allarmanti.
Un esempio eclatante ha coinvolto il modello Gpt 3, dal momento che quest’ultimo ha fornito un consiglio decisamente emblematico, la differenza salariale proposta a un candidato uomo rispetto a un candidato donna è stata di ben 120.000 $ all’anno.
Questo divario retributivo è spiccato particolarmente all’interno di settori come quello legale e medico, a seguire ci sono ingegneria e amministrazione aziendale, solamente nel campo delle scienze sociali i suggerimenti per uomini e donne si sono avvicinati alla parità sempre però in favore dell’uomo, ma non è tutto, i ricercatori si sono accorti che i modelli fornivano consigli differenziati in base al genere, anche per quanto riguarda le scelte di carriera e gli obiettivi professionali, senza però segnalare la presenza di questo bias nelle loro risposte.
Non è la prima volta che assistiamo a questo problema dal momento che già in passato Amazon fu costretta a pensionare prematuramente uno strumento di assunzione basato sull’intelligenza artificiale dopo aver scoperto che penalizzava sistematicamente le candidature femminili.
