
Действительно ли ChatGPT делает нас глупее и ленивее?
С момента дебюта ChatGPT в 2022 году генеративный ИИ быстро вошёл в нашу работу, учёбу и личную жизнь, помогая ускорять исследование, создание контента и многое другое с беспрецедентной скоростью.
Энтузиазм по поводу инструментов генеративного ИИ, что неудивительно, набрал обороты и демонстрирует даже более быстрые темпы принятия, чем Интернет или персональные компьютеры, но эксперты предупреждают, что нам следует действовать с осторожностью. Как и любая новая технология, генеративный ИИ может проложить путь к прогрессу для общества во многих отношениях, но он также может привести к последствиям, если его оставить без контроля.
Одним из таких голосов является Наташа Говендер-Роперт, руководитель направления ИИ по борьбе с финансовыми преступлениями в Rabobank. Она присоединилась к основателю TNW Борису Вельдхёйзену ван Зантену в последнем эпизоде «Kia’s Next Big Drive», чтобы поговорить об этике ИИ, предвзятости и о том, не начинаем ли мы делегировать свои мозги машинам.
Полную версию интервью смотрите — запись сделана по пути на TNW2025 в полностью электрическом Kia EV9:
Один из вопросов, который должен волновать нас всех: какая может быть цена нашей растущей зависимости от генеративного ИИ в плане собственного интеллекта?
Недавнее исследование MIT по использованию ChatGPT для написания эссе вылилось в поток сенсационных заголовков: от «Исследователи говорят, что использование ChatGPT может разлагать ваш мозг» до «ChatGPT может делать вас ленивым и тупым». Так ли это на самом деле?
Ваш мозг и генеративный ИИ
Вот что действительно произошло: исследователи дали 54 студентам из бостонского региона задание написать эссе. Одна группа использовала ChatGPT, другая — Google (без помощи ИИ), а третья должна была писать, полагаясь только на свои мозги. Пока они писали, активность их мозга измеряли с помощью электродов.
После трёх сессий группа, писавшая без помощи ИИ, показала наивысший уровень ментальной связности. Пользователи ChatGPT? Наименьший. Казалось, что те, кто использовал ИИ, работали на автопилоте, в то время как другие приходилось думать усерднее, чтобы выдавить слова на страницу.
На четвёртом этапе роли поменялись. Группа, писавшая без помощи ИИ, получила возможность использовать ChatGPT, в то время как группа, пользовавшаяся ИИ, должна была действовать в одиночку. Результат? Первые улучшили свои эссе. Вторым было трудно вспомнить, что они вообще писали.
В целом исследование показало, что за четыре месяца, в течение которых оно проводилось, участники, писавшие без помощи ИИ, превзошли остальные группы на нейронном, лингвистическом и поведенческом уровнях, в то время как те, кто использовал ChatGPT, тратили на эссе меньше времени, просто делая копировать/вставить.
Преподаватели английского языка, которые проверяли их работы, сказали, что в них не хватает оригинальной мысли и «души». Звучит пугающе, верно? Возможно, но правда сложнее, чем сенсационные заголовки.
Выводы касались не столько «распада мозга», сколько ментальных сокращений. Они показали, что чрезмерная зависимость от больших языковых моделей (LLM, большие языковые модели) может снижать вовлечённость ума. Но при активном, вдумчивом использовании эти риски можно избежать. Исследователи также подчеркнули, что, хотя исследование поднимает интересные вопросы для дальнейших исследований, оно было слишком маленьким и простым, чтобы делать окончательные выводы.
Смерть критического мышления?
Хотя выводы (которые ещё не прошли экспертную рецензию) безусловно требуют дальнейших исследований и более глубокого осмысления того, как мы должны использовать этот инструмент в образовательном, профессиональном и личном контекстах, возможно, то, что действительно гниёт наши мозги — это краткие заголовки (TL;DR), созданные ради кликов, а не точности.
Похоже, исследователи разделяют эти опасения. Они создали веб-сайт со страницей FAQ, где призвали журналистов не использовать неточную и сенсационную риторику при изложении результатов.
Источник: FAQ for “Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task” https://www.brainonllm.com/faq
Иронично, что они приписали возникший «шум» журналистам, которые использовали LLM для суммирования статьи, и добавили: «Ваши ОТЗЫВЫ ОТ ЛЮДЕЙ очень приветствуются, если вы прочитали статью или её части. Также, для напоминания, в исследовании есть список ограничений, который мы очень ясно указываем как в статье, так и на веб-странице».
Из этого исследования можно с уверенностью вынести два вывода:
- Необходимо больше исследований о том, как LLM должны использоваться в образовательной среде.
- Студенты, журналисты и широкая общественность должны оставаться критичными в отношении информации, которую мы получаем, будь то от СМИ или от генеративного ИИ.
Исследователи из Vrije Universiteit Amsterdam обеспокоены тем, что по мере нашей растущей зависимости от LLM под угрозой может оказаться критическое мышление — наша способность и готовность подвергать сомнению и менять социальные нормы.
«Студенты могут стать менее склонны проводить обширные или глубокие поисковые процессы самостоятельно, потому что они полагаются на авторитетный и информированный тон вывода GenAI. Они могут быть менее склонны ставить под вопрос — или даже идентифицировать — неявные перспективы, лежащие в основе вывода, не учитывая, чьи точки зрения замалчиваются и какие принимаемые на веру предположения лежат в основе утверждений».
Эти риски указывают на более глубокую проблему в ИИ. Когда мы воспринимаем его выводы на веру, мы можем упускать из виду встроенные предвзятости и неоспоренные предположения. Решение этого требует не только технических исправлений, но и критического осмысления того, что мы вообще понимаем под предвзятостью.
Эти вопросы лежат в основе работы Наташи Говендер-Роперт, руководителя направления ИИ по борьбе с финансовыми преступлениями в Rabobank. Её роль сосредоточена на создании ответственного, заслуживающего доверия ИИ путём выявления и устранения предвзятости. Но, как она отметила в разговоре с основателем TNW Борисом Вельдхёйзеном ван Зантеном в «Kia’s Next Big Drive», предвзятость — субъективный термин и должна определяться для каждого человека и каждой компании.
«Предвзятость не имеет единого определения. То, что я считаю предвзятым или непредвзятым, может отличаться от того, что думает кто‑то другой. Это то, что мы как люди и как индивидуумы должны решить. Нам нужно сделать выбор и сказать: это тот стандарт принципов, который мы будем применять при работе с нашими данными», — сказала Говендер-Роперт.
Социальные нормы и предубеждения не фиксированы, они постоянно меняются. По мере того как общество развивается, исторические данные, на которых мы обучаем наши LLM, остаются прежними. Нам нужно оставаться критичными и оспаривать получаемую информацию, будь то от наших собратьев по человечеству или от наших машин, чтобы строить более справедливое и равноправное общество.

Другие статьи


Действительно ли ChatGPT делает нас глупее и ленивее?
Делает ли ChatGPT нас ленивыми? Мы разбираем исследование MIT об искусственном интеллекте, критическом мышлении и о том, что зависимость от генеративных инструментов на самом деле означает для нашего мозга.