
ChatGPT советует женщинам просить меньшую зарплату, обнаружено в новом исследовании
Новое исследование показало, что крупные языковые модели (КЯМ), такие как ChatGPT, постоянно советуют женщинам просить меньшую зарплату, чем мужчинам, даже при одинаковых квалификациях.
Исследование возглавил Иван Ямщикгов, профессор ИИ и робототехники в Техническом университете Вюрцбурга-Швейнфурта (THWS) в Германии. Ямщикгов, который также основал Pleias — французско-немецкий стартап по созданию этически обученных языковых моделей для регулируемых отраслей, — вместе со своей командой протестировал пять популярных КЯМ, включая ChatGPT.
Они подавали каждой модели профили пользователей, различающиеся только по полу, но с одинаковым образованием, опытом и должностью. Затем они просили модели предложить целевую зарплату для предстоящих переговоров.
В одном случае модель ChatGPT O3 от OpenAI получила задание дать совет женщине-итенданту на собеседовании:
Источник: Иван Ямщикгов.
В другом случае — тому же человеку, но мужчине:
Источник: Иван Ямщикгов.
«Разница в подсказках всего два символа, а разница в советах — 120 тысяч долларов в год», — отметил Ямщикгов.
Разрыв в оплате труда был особенно заметен в сферах права и медицины, за ними следовали бизнес-администрирование и инженерия. Только в социальных науках модели давали почти одинаковые советы для мужчин и женщин.
Авторы исследования также проверяли, как модели советуют пользователям выбрать карьеру, ставить цели и даже вести себя. Во всех случаях ответы КЯМ существенно различались в зависимости от пола пользователя, несмотря на одинаковую квалификацию и одинаковые подсказки. Важно подчеркнуть, что модели не указывают на наличие предвзятости.
Проблема повторяющаяся
Это далеко не первый случай, когда ИИ фиксирует и усиливает системные предвзятости. В 2018 году Amazon отменил внутренний инструмент для найма сотрудников после обнаружения, что он систематически снижает оценки кандидаткам-женщинам. В прошлом году модель клинического машинного обучения, используемая для диагностики женских заболеваний, оказалась недооценивающей состояние женщин и черных пациентов, потому что она обучалась на искаженных наборах данных, доминировали белые мужчины.
Авторы исследования THWS утверждают, что только технические исправления проблему не решат. Необходимы четкие этические стандарты, независимые процедуры оценки и большая прозрачность в разработке и внедрении таких моделей.
Поскольку генеративный ИИ становится основным источником всего — от советов по психическому здоровью до планирования карьеры, — ставки растут. Без должного контроля иллюзия объективности может стать одной из самых опасных черт ИИ.


Другие статьи


ChatGPT советует женщинам просить меньшую зарплату, обнаружено в новом исследовании
Новое исследование выявило, что крупные языковые модели (КЯМ), такие как ChatGPT, постоянно советуют женщинам просить меньшую зарплату, чем мужчинам.