
ChatGPT consiglia alle donne di chiedere salari più bassi, secondo un nuovo studio
Una nuova ricerca ha scoperto che i grandi modelli linguistici (LLM) come ChatGPT consigliano costantemente alle donne di chiedere salari più bassi rispetto agli uomini, anche quando entrambe possiedono qualifiche identiche.
La ricerca è stata condotta da Ivan Yamshchikov, professore di intelligenza artificiale e robotica presso la Technical University of Würzburg-Schweinfurt (THWS) in Germania. Yamshchikov, che ha anche fondato Pleias — una startup franco-tedesca che sviluppa modelli linguistici eticamente addestrati per industrie regolamentate — ha lavorato con il suo team per testare cinque popolari LLM, tra cui ChatGPT.
Hanno fornito ad ogni modello profili utente che differivano solo per genere, ma comprendevano le stesse qualifiche, esperienza e ruolo lavorativo. Successivamente, hanno chiesto ai modelli di suggerire uno stipendio target per una futura trattativa.
In un esempio, il modello ChatGPT O3 di OpenAI è stato invitato a dare consigli a una candidata donna:
Credito: Ivan Yamshchikov.
In un altro, i ricercatori hanno fatto la stessa richiesta ma per un candidato uomo:
Credito: Ivan Yamshchikov.
“La differenza nei prompt è di due lettere, la differenza nell’‘consiglio’ è di 120.000 dollari all’anno”, ha detto Yamshchikov.
Il divario salariale era più evidente nei settori di diritto e medicina, seguito da amministrazione aziendale e ingegneria. Solo nelle scienze sociali i modelli hanno offerto consigli quasi identici per uomini e donne.
I ricercatori hanno anche testato come i modelli consigliassero agli utenti sulle scelte di carriera, l’obiettivo di obiettivi e persino sui suggerimenti comportamentali. In generale, gli LLM rispondevano in modo diverso in base al genere dell’utente, nonostante qualifiche e prompt identici. Analizzando un punto cruciale, i modelli non riconoscono il loro bias.
Un problema ricorrente
Questa non è la prima volta che l’IA viene sorpresa a riflettere e rafforzare bias sistemici. Nel 2018, Amazon ha eliminato uno strumento di assunzione interno dopo aver scoperto che valutava sistematicamente in modo inferiore le candidate donne. L’anno scorso, un modello di apprendimento automatico clinico utilizzato per diagnosticare le condizioni di salute delle donne è stato dimostrato diagnosticare meno frequentemente le donne e i pazienti afroamericani, perché addestrato su dataset sbilanciati dominati da uomini bianchi.
I ricercatori dietro lo studio della THWS sostengono che le soluzioni tecniche da sole non risolveranno il problema. Ciò che serve, affermano, sono standard etici chiari, processi di revisione indipendenti e maggiore trasparenza su come questi modelli vengono sviluppati e implementati.
Poiché l’intelligenza artificiale generativa sta diventando una fonte di riferimento per tutto, dal supporto alla salute mentale alla pianificazione professionale, i rischi sono in aumento. Se non controllata, l’illusione di obiettività potrebbe diventare uno dei tratti più pericolosi dell’IA.


Altri articoli


ChatGPT consiglia alle donne di chiedere salari più bassi, secondo un nuovo studio
Un nuovo studio ha scoperto che i grandi modelli linguistici (LLM) come ChatGPT consigliano costantemente alle donne di chiedere salari più bassi rispetto agli uomini.