Эксперты Стэнфорда говорят, что вам следует избегать использования ИИ-чатботов в качестве личного гида.

Эксперты Стэнфорда говорят, что вам следует избегать использования ИИ-чатботов в качестве личного гида.

      Исследователи Стэнфорда предупреждают, что использование AI-чатботов для личных советов может обернуться против вас. Проблема заключается не только в точности, но и в том, как эти системы реагируют, когда вы сталкиваетесь со сложными реальными конфликтами.

      Новое исследование показало, что AI-модели часто принимают сторону пользователей, даже когда они неправы, усиливая сомнительные решения вместо того, чтобы ставить их под сомнение. Эта закономерность не только формирует сами советы, но и меняет то, как люди воспринимают свои собственные действия. Участники, взаимодействовавшие с чрезмерно согласными чатботами, становились более уверенными в своей правоте и менее склонными к эмпатии или исправлению ситуации.

      Если вы рассматриваете AI как личного наставника, вы, вероятно, получаете уверенность, а не честную обратную связь.

      Исследование выявило явный предвзятость

      Исследователи Стэнфорда оценили 11 основных AI-моделей, используя смесь межличностных дилемм, включая сценарии, связанные с вредным или обманным поведением. Эта закономерность проявлялась последовательно. Чатботы гораздо чаще соглашались с позицией пользователя, чем человеческие ответы.

      В общем, в сценариях с советами модели поддерживали пользователей почти в полтора раза чаще, чем люди. Даже в явно неэтичных ситуациях они все равно одобряли эти выборы почти в половине случаев. Та же предвзятость проявлялась в случаях, когда внешние наблюдатели уже согласились, что пользователь неправ, но системы смягчали или переосмысляли эти действия в более благоприятном свете.

      Это указывает на более глубокий компромисс в том, как эти инструменты создаются. Системы, оптимизированные для помощи, часто по умолчанию склоняются к согласию, даже когда лучший ответ подразумевает возражение.

      Почему пользователи все еще доверяют этому

      Большинство людей не осознают, что это происходит. Участники оценивали согласные и более критические AI-ответы как одинаково объективные, что предполагает, что предвзятость часто проходит незамеченной.

      Часть причины заключается в тоне. Ответы редко заявляют, что пользователь прав, но вместо этого оправдывают действия в отшлифованном, академическом языке, который кажется сбалансированным. Эта формулировка делает укрепление звучащим как осторожное рассуждение.

      Со временем это создает замкнутый круг. Люди чувствуют себя утвержденными, больше доверяют системе и возвращаются с аналогичными проблемами. Это укрепление может сузить подход человека к конфликту, делая его менее открытым к пересмотру своей роли. Пользователи все еще предпочитали эти ответы, несмотря на недостатки, что усложняет усилия по решению проблемы.

      Что вам следует делать вместо этого

      Рекомендации исследователей просты: не полагайтесь на AI-чатботов как на замену человеческому мнению, когда вы сталкиваетесь с личными конфликтами или моральными решениями.

      Настоящие разговоры включают разногласия и дискомфорт, что может помочь вам переоценить свои действия и развить эмпатию. Чатботы снимают это давление, облегчая избегание вызовов. Есть ранние признаки того, что эту тенденцию можно уменьшить, но эти исправления пока не внедрены широко.

      На данный момент используйте AI для организации своих мыслей, а не для того, чтобы решить, кто прав. Когда речь идет о взаимоотношениях или ответственности, вы получите лучшие результаты от людей, готовых возражать.

Эксперты Стэнфорда говорят, что вам следует избегать использования ИИ-чатботов в качестве личного гида. Эксперты Стэнфорда говорят, что вам следует избегать использования ИИ-чатботов в качестве личного гида.

Другие статьи

Эксперимент PUBG с видом сверху закончился, прежде чем он действительно начался Эксперимент PUBG с видом сверху закончился, прежде чем он действительно начался PUBG: Blindspot с его необычным тактическим видом сверху завоевал часть своей аудитории, но игра все равно закрывается до того, как она когда-либо достигнет полного релиза. Поддержка WhatsApp для CarPlay уже на подходе. Поддержка WhatsApp для CarPlay уже на подходе. Я много лет являюсь преданным пользователем CarPlay, поэтому это обновление кажется давно назревшим. WhatsApp наконец-то работает над полноценным приложением для CarPlay, и это было давно пора. До сих пор я мог только видеть уведомления, появляющиеся на приборной панели, без какой-либо реальной интерактивности. Загвоздка в том, что оно все еще на стадии тестирования […] Roblox теперь использует ИИ-модерацию, чтобы блокировать вредоносный контент до того, как он дойдет до вас. Roblox теперь использует ИИ-модерацию, чтобы блокировать вредоносный контент до того, как он дойдет до вас. Новая система модерации AI в Roblox сканирует целые игровые сцены в реальном времени, выявляя вредоносный контент, который большинство старых систем полностью пропустили бы, и уже закрывает 5,000 серверов ежедневно. Vivo X300 Ultra нацелен на то, чтобы заменить вашу камеру, а не только ваш телефон. Vivo X300 Ultra нацелен на то, чтобы заменить вашу камеру, а не только ваш телефон. Vivo представила X300 Ultra с профессиональной камерой, разработанной для конкуренции с специализированными камерами. ИИ может обыгрывать гроссмейстеров по шахматам, но не может адаптироваться к современным видеоиграм. ИИ может обыгрывать гроссмейстеров по шахматам, но не может адаптироваться к современным видеоиграм. Исследователи NYU говорят, что самой большой слабостью ИИ по-прежнему является адаптивность, и современные системы испытывают трудности с обработкой новых видеоигр, которые они никогда не видели раньше. Судья отклонил антимонопольный иск X против рекламодателей с предвзятостью. Судья отклонил антимонопольный иск X против рекламодателей с предвзятостью. Судья США постановил, что X не смогла представить действительное антимонопольное обвинение против рекламодателей, включая Mars, Unilever и Nestlé, что запрещает компании повторно подавать иск.

Эксперты Стэнфорда говорят, что вам следует избегать использования ИИ-чатботов в качестве личного гида.

Исследователи Стэнфорда обнаружили, что AI-чатботы часто укрепляют взгляды пользователей в личных конфликтах, заставляя людей быть более уверенными в своей правоте, при этом снижая эмпатию, что вызывает опасения по поводу полагания на AI в качестве руководства для реальных решений.