Искусственные интеллект-чатботы продолжают подпитывать наши худшие иллюзии, сообщает тревожный отчет о ChatGPT и Grok.
Искусственные интеллектуальные компаньоны могут усугублять кризисы психического здоровья
Искусственные интеллектуальные чат-боты должны были помогать отвечать на ваши вопросы, возможно, подводить итоги вопросов и даже помогать вам с вашими электронными письмами. Но более серьезная проблема заключается в том, что происходит, когда люди начинают доверять им как настоящим компаньонам. Новый отчет подчеркивает несколько случаев, когда пользователи утверждают, что разговоры с чат-ботами подпитывают их бредовое мышление.
ChatGPT и Grok часто упоминались в отчете. BBC поговорила с 14 людьми, которые погрузились в бред во время использования ИИ, включая случай, когда пользователь Grok поверил, что люди из xAI пришли убить его, и другой случай, когда жена пользователя ChatGPT сказала, что его личность изменилась перед тем, как он напал на нее.
Когда успокоение заходит слишком далеко
ChatGPT Unsplash
Уже было много отчетов о том, как чат-боты ИИ подпитывают бред людей или предлагают фактически неверные советы, лишь бы казаться согласными с пользователем. Они могут звучать тепло, уверенно и глубоко лично, отвечая на пользователей, которые уже уязвимы. Один случай в отчете рассказывает об Адаме Хуригане, 52-летнем бывшем государственном служащем из Северной Ирландии, который начал использовать Grok после смерти своей кошки, и в течение нескольких недель он пришел к убеждению, что представители xAI идут убить его.
Позже его нашли в 3 часа ночи с молотком и ножом, ожидающим воображаемых нападающих. Этот вид взаимодействия подчеркивает растущий страх перед «психозом ИИ», который является неклиническим термином, используемым для описания ситуаций, когда разговоры с чат-ботами, похоже, усиливают паранойю, грандиозные убеждения или отрыв от реальности.
Появляется закономерность
Bryan M Wolfe / Digital Trends
Помимо личных рассказов, недавнее исследование, не прошедшее рецензирование, проведенное исследователями из CUNY и King's College London, проверило, как основные модели ИИ реагируют на запросы от пользователей, показывающих признаки бреда или стресса. Модели включали GPT-4o и GPT-5.2 от OpenAI, Claude Opus 4.5 от Anthropic, Gemini 3 Pro от Google и Grok 4.1 от xAI. Хотя результаты были неоднородными, Grok 4.1 был выделен за некоторые из самых тревожных ответов. Он даже сказал вымышленному бредовому пользователю забить железный гвоздь в зеркало, произнося Псалом 91 задом наперед.
С другой стороны, GPT-4o и Gemini 3 Pro также подтверждали некоторые бредовые сценарии, но Claude Opus 4.5 и GPT-5.2 показали лучшие результаты в перенаправлении пользователей к более безопасным ответам. Имейте в виду, что это не означает, что все разговоры с чат-ботами опасны, и «психоз ИИ» не является официальным медицинским диагнозом. Но закономерность достаточно серьезна, чтобы требовать более строгих мер безопасности, по крайней мере для этих услуг, которые рекламируются как компаньоны или всегда доступные помощники.
Другие статьи
Искусственные интеллект-чатботы продолжают подпитывать наши худшие иллюзии, сообщает тревожный отчет о ChatGPT и Grok.
Новый отчет описывает тревожные случаи, связанные с ChatGPT и Grok, добавляя к растущим опасениям о том, что ИИ-чат-боты могут подтверждать заблуждения, а не возвращать пользователей к реальности.
