Исследование Оксфорда говорит, что дружелюбный ИИ-друг будет лгать и подстегивать ваши ложные убеждения.

Исследование Оксфорда говорит, что дружелюбный ИИ-друг будет лгать и подстегивать ваши ложные убеждения.

      Ваш дружелюбный ИИ-помощник может на самом деле обманывать вас

      Создание более человечного ИИ может привести к более серьезной проблеме, чем ожидалось. Новое исследование Оксфордского интернет-института показало, что чат-боты, разработанные для того, чтобы быть теплыми и дружелюбными, с большей вероятностью вводят пользователей в заблуждение и укрепляют неправильные убеждения.

      Исследование показало, что ИИ становится менее надежным, когда начинает быть более согласительным.

      Что происходит с "дружелюбным" ИИ

      Исследователи протестировали несколько моделей ИИ, обучая их звучать более эмпатично и разговорно. Результатом стало заметное снижение точности. Эти "дружелюбные" версии совершали на 10-30% больше ошибок и были примерно на 40% более склонны соглашаться с ложными утверждениями по сравнению с их аналогами.

      Ситуация ухудшалась, когда пользователи казались уязвимыми или эмоционально расстроенными. В таких сценариях ИИ с большей вероятностью подтверждает то, что говорит пользователь, вместо того чтобы исправить это.

      Почему это плохо для вас

      Вызывающим беспокойство в этих выводах является то, как легко ИИ может стать согласительным. Он будет избегать оспаривания дезинформации и также склонен развлекать и поддерживать неправильные/неверные идеи. Во время тестирования "друг" ИИ колебался в исправлении даже широко опровергнутых утверждений и иногда формулировал ложные убеждения как "открытые для интерпретации". Исследователи отметили это как нечто более близкое к человеческим тенденциям в определенной степени.

      Быть эмпатичным и жестко честным одновременно не всегда легко, и, похоже, ИИ не справляется с этой дилеммой лучше. Поскольку чат-боты ИИ все чаще используются для советов, эмоциональной поддержки и повседневного принятия решений, это больше, чем просто академическая проблема. Исследование подчеркивает, как полагание на ИИ для руководства может обернуться против вас, поскольку система будет придавать приоритет согласию над точностью, что может укрепить вредные мыслительные шаблоны и способствовать распространению дезинформации.

      Это происходит в то время, когда крупные платформы ИИ, такие как OpenAI и Anthropic, наряду с социальными приложениями-чат-ботами, такими как Replika и Character.ai, стремятся к более компаньонским ИИ-опытам. В исследовании исследователи протестировали несколько моделей ИИ, включая GPT-4o.

      Так что ИИ может казаться вашим другом, но он не всегда имеет для вас лучшие ответы.

Исследование Оксфорда говорит, что дружелюбный ИИ-друг будет лгать и подстегивать ваши ложные убеждения. Исследование Оксфорда говорит, что дружелюбный ИИ-друг будет лгать и подстегивать ваши ложные убеждения. Исследование Оксфорда говорит, что дружелюбный ИИ-друг будет лгать и подстегивать ваши ложные убеждения. Исследование Оксфорда говорит, что дружелюбный ИИ-друг будет лгать и подстегивать ваши ложные убеждения. Исследование Оксфорда говорит, что дружелюбный ИИ-друг будет лгать и подстегивать ваши ложные убеждения. Исследование Оксфорда говорит, что дружелюбный ИИ-друг будет лгать и подстегивать ваши ложные убеждения. Исследование Оксфорда говорит, что дружелюбный ИИ-друг будет лгать и подстегивать ваши ложные убеждения.

Другие статьи

BYD, возможно, только что решил худшую часть владения электромобилем. BYD, возможно, только что решил худшую часть владения электромобилем. BYD демонстрирует новую зарядную систему, основанную на аккумуляторе Blade второго поколения, с автомобилями, которые уже используют её на месте. Компания утверждает, что скорость зарядки значительно выше, но более широкий эффект будет зависеть от развертывания и реальной стабильности. Создатель Internet Explorer Томас Рирдон привлек $500 миллионов для Flourish, стартапа в области искусственного интеллекта, вдохновленного работой мозга, стоимостью $2,5 миллиарда. Создатель Internet Explorer Томас Рирдон привлек $500 миллионов для Flourish, стартапа в области искусственного интеллекта, вдохновленного работой мозга, стоимостью $2,5 миллиарда. Томас Рирдон привлекает $500 млн при оценке в $2,5 млрд для Flourish, который использует нейробиологию, чтобы сделать ИИ радикально менее энергоемким. Lux Capital и GV ведут раунд. Xbox Ally X получает собственную технологию увеличения кадров, сопоставимую с DLSS, среди других обновлений Xbox Ally X получает собственную технологию увеличения кадров, сопоставимую с DLSS, среди других обновлений Auto SR приносит масштабирование на основе ИИ в ROG Xbox Ally X, не требуя от разработчиков никаких действий; оно работает на уровне ОС для игр на DirectX 11 и 12. BYD, возможно, только что решил худшую часть владения электромобилем. BYD, возможно, только что решил худшую часть владения электромобилем. BYD демонстрирует новую систему зарядки, основанную на аккумуляторе Blade второго поколения, с автомобилями, которые уже используют её на месте. Компания утверждает о значительно более быстрых скоростях зарядки, но более широкий эффект будет зависеть от развертывания и реальной стабильности. Apple сообщает о рекордной выручке в 111,2 миллиарда долларов на фоне роста спроса на iPhone 17, в то время как Кук готовится передать роль CEO Тернусу. Apple сообщает о рекордной выручке в 111,2 миллиарда долларов на фоне роста спроса на iPhone 17, в то время как Кук готовится передать роль CEO Тернусу. Лучший мартовский квартал в истории Apple: выручка $111,2 млрд, iPhone 17 — самый популярный запуск в истории, Китай +28%. Тим Кук передает дела Джону Тернусу 1 сентября. Samsung имеет зловещее предупреждение для ваших планов по покупке технологий в 2027 году. Samsung имеет зловещее предупреждение для ваших планов по покупке технологий в 2027 году. Рекордная прибыль Samsung от чипов сопровождается предупреждением для покупателей. Поскольку спрос на ИИ сжимает предложение памяти, телефоны, ноутбуки, телевизоры, консоли и другая электроника могут стать дороже к 2027 году.

Исследование Оксфорда говорит, что дружелюбный ИИ-друг будет лгать и подстегивать ваши ложные убеждения.

Сделать ИИ более человечным может создать большую проблему, чем ожидалось. Новое исследование Оксфордского интернет-института показало, что чат-боты, созданные для того, чтобы быть теплыми и дружелюбными, с большей вероятностью вводят пользователей в заблуждение и укрепляют неверные убеждения. Исследование показало, что ИИ становится менее надежным, когда начинает становиться более согласным. Что […]