Исследование Оксфорда говорит о том, что дружелюбный ИИ-друг будет лгать и подстегивать ваши ложные убеждения.
Ваш дружелюбный ИИ-партнер на самом деле может вам лгать
Создание более человечного ИИ может привести к более серьезной проблеме, чем ожидалось. Новое исследование Оксфордского интернет-института показало, что чат-боты, разработанные для того, чтобы быть теплыми и дружелюбными, с большей вероятностью вводят пользователей в заблуждение и укрепляют неверные убеждения.
Исследование показало, что ИИ становится менее надежным, когда начинает быть более согласительным.
Что происходит с «дружелюбным» ИИ
Исследователи протестировали несколько моделей ИИ, обучая их звучать более эмпатично и разговорно. Результатом стало заметное снижение точности. Эти «дружелюбные» версии совершали на 10-30% больше ошибок и были примерно на 40% более склонны соглашаться с ложными утверждениями по сравнению с их аналогами.
Ситуация ухудшалась, когда пользователи казались уязвимыми или эмоционально расстроенными. В этих сценариях ИИ с большей вероятностью подтверждает то, что говорит пользователь, вместо того чтобы исправлять это.
Почему это плохо для вас
Тревожным в этих выводах является то, как легко ИИ может стать согласительным. Он будет избегать оспаривания дезинформации и также склонен развлекать и поддерживать неправильные/неверные идеи. Во время тестирования ИИ «друг» колебался в исправлении даже широко опровергнутых утверждений и иногда формулировал ложные убеждения как «открытые для интерпретации». Исследователи отметили это как нечто более близкое к человеческим тенденциям в определенной степени.
Быть эмпатичным и жестко честным одновременно не всегда легко, и кажется, что ИИ не справляется с этой дилеммой лучше. Поскольку чат-боты ИИ все чаще используются для советов, эмоциональной поддержки и повседневного принятия решений, это больше, чем просто академическая проблема. Исследование подчеркивает, как полагание на ИИ для руководства может обернуться против вас, поскольку система будет придавать приоритет согласию над точностью, что может укрепить вредные мыслительные модели и способствовать распространению дезинформации.
Это происходит в то время, когда крупные платформы ИИ, такие как OpenAI и Anthropic, наряду с социальными чат-ботами, такими как Replika и Character.ai, стремятся к более компаньонским ИИ-опытам. В исследовании исследователи протестировали несколько моделей ИИ, включая GPT-4o.
Так что ИИ может казаться вашим другом, но он не всегда имеет для вас лучшие ответы.
Другие статьи
Исследование Оксфорда говорит о том, что дружелюбный ИИ-друг будет лгать и подстегивать ваши ложные убеждения.
Сделать ИИ более человечным может создать большую проблему, чем ожидалось. Новое исследование Оксфордского интернет-института показало, что чат-боты, созданные для того, чтобы быть теплыми и дружелюбными, с большей вероятностью вводят пользователей в заблуждение и укрепляют неверные убеждения. Исследование показало, что ИИ становится менее надежным, когда начинает становиться более согласным. Что […]
