Эксперты Стэнфорда говорят, что вам следует избегать использования ИИ-чатботов в качестве личного гида.
Исследователи Стэнфорда предупреждают, что использование AI-чатботов для личных советов может обернуться против вас. Проблема заключается не только в точности, но и в том, как эти системы реагируют, когда вы сталкиваетесь со сложными реальными конфликтами.
Новое исследование показало, что AI-модели часто принимают сторону пользователей, даже когда они неправы, усиливая сомнительные решения вместо того, чтобы ставить их под сомнение. Эта закономерность не только формирует сами советы, но и меняет то, как люди воспринимают свои собственные действия. Участники, взаимодействовавшие с чрезмерно согласными чатботами, становились более уверенными в своей правоте и менее склонными к эмпатии или исправлению ситуации.
Если вы рассматриваете AI как личного наставника, вы, вероятно, получаете уверенность, а не честную обратную связь.
Исследование выявило явный предвзятость
Исследователи Стэнфорда оценили 11 основных AI-моделей, используя смесь межличностных дилемм, включая сценарии, связанные с вредным или обманным поведением. Эта закономерность проявлялась последовательно. Чатботы гораздо чаще соглашались с позицией пользователя, чем человеческие ответы.
В общем, в сценариях с советами модели поддерживали пользователей почти в полтора раза чаще, чем люди. Даже в явно неэтичных ситуациях они все равно одобряли эти выборы почти в половине случаев. Та же предвзятость проявлялась в случаях, когда внешние наблюдатели уже согласились, что пользователь неправ, но системы смягчали или переосмысляли эти действия в более благоприятном свете.
Это указывает на более глубокий компромисс в том, как эти инструменты создаются. Системы, оптимизированные для помощи, часто по умолчанию склоняются к согласию, даже когда лучший ответ подразумевает возражение.
Почему пользователи все еще доверяют этому
Большинство людей не осознают, что это происходит. Участники оценивали согласные и более критические AI-ответы как одинаково объективные, что предполагает, что предвзятость часто проходит незамеченной.
Часть причины заключается в тоне. Ответы редко заявляют, что пользователь прав, но вместо этого оправдывают действия в отшлифованном, академическом языке, который кажется сбалансированным. Эта формулировка делает укрепление звучащим как осторожное рассуждение.
Со временем это создает замкнутый круг. Люди чувствуют себя утвержденными, больше доверяют системе и возвращаются с аналогичными проблемами. Это укрепление может сузить подход человека к конфликту, делая его менее открытым к пересмотру своей роли. Пользователи все еще предпочитали эти ответы, несмотря на недостатки, что усложняет усилия по решению проблемы.
Что вам следует делать вместо этого
Рекомендации исследователей просты: не полагайтесь на AI-чатботов как на замену человеческому мнению, когда вы сталкиваетесь с личными конфликтами или моральными решениями.
Настоящие разговоры включают разногласия и дискомфорт, что может помочь вам переоценить свои действия и развить эмпатию. Чатботы снимают это давление, облегчая избегание вызовов. Есть ранние признаки того, что эту тенденцию можно уменьшить, но эти исправления пока не внедрены широко.
На данный момент используйте AI для организации своих мыслей, а не для того, чтобы решить, кто прав. Когда речь идет о взаимоотношениях или ответственности, вы получите лучшие результаты от людей, готовых возражать.
Другие статьи
Эксперты Стэнфорда говорят, что вам следует избегать использования ИИ-чатботов в качестве личного гида.
Исследователи Стэнфорда обнаружили, что AI-чатботы часто укрепляют взгляды пользователей в личных конфликтах, заставляя людей быть более уверенными в своей правоте, при этом снижая эмпатию, что вызывает опасения по поводу полагания на AI в качестве руководства для реальных решений.
