Искусственный интеллект и «общество зомби». Почему технологии, созданные для развития, делают нас слабее
Мы привыкли считать, что живем в золотой век знаний. Любая информация доступна мгновенно: достаточно открыть Google, достать смартфон или спросить у ChatGPT. Казалось бы, человечество должно становиться умнее, ведь никогда прежде справочники, энциклопедии и консультации экспертов не были так близко.
Но факты рисуют другую картину. Международное исследование PISA-2022 показало крупнейший провал за всю историю теста: минус десять баллов по чтению и почти минус пятнадцать по математике по сравнению с 2018 годом. Аналитики связывают это не только с пандемией, но и с тем, что цифровые технологии слишком активно заменяют классическое обучение.
Последние десятилетия технологии шаг за шагом переписывали карту нашего мышления. Поисковики научили нас хранить в голове не сами факты, а адреса, где их можно найти. Смартфоны стали внешним жестким диском, забирая часть внимания и памяти. Социальные сети закрепили привычку к поверхностному чтению и бесконечному переключению. Генеративный ИИ пошел еще дальше: он не только ищет и хранит, но и предлагает готовые рассуждения, подменяя сам процесс анализа.
Исследования в образовании и экономике показывают схожий результат: там, где мы используем ИИ бездумно, навыки деградируют. Студенты решают быстрее, но усваивают хуже. Сотрудники закрывают рутинные задачи, но теряют креативность и способность к рефлексии.
Мы выигрываем время сегодня, но теряем глубину завтра.
И возникает вопрос, если каждый новый шаг технологий снижает усилия, не приведет ли массовое использование ИИ к обществу, где люди будут только спрашивать, но уже разучатся думать? Бывший инженер Google и Microsoft уже заявил о 95% вероятности гибели человечества от ИИ.
Google и смартфоны изменили работу памяти и внимания
Изменения, с которыми мы теперь связываем искусственный интеллект, начались значительно раньше. Уже два десятилетия цифровые технологии постепенно меняют то, как мы работаем с информацией и как работает наша память.
Первый тревожный звоночек — это «Google-эффект». В 2011 году исследователи выяснили: когда человек знает, что ответ легко найти в интернете, он хуже запоминает сам факт, но отлично помнит, где его искать. Память как бы экономит усилия: зачем помнить, если достаточно помнить адрес.
Следующий этап — смартфоны. Исследование 2017 года подтвердило, что даже выключенный телефон на столе снижает внимание и рабочую память. Присутствие «внешнего мозга» рядом отвлекает и отнимает ресурсы, которые раньше шли на концентрацию.
Но есть еще и социальные сети. Короткий формат, уведомления и кликбейты вкладывают внимание в фрагментарный стиль мышления. Исследование 2019 года показало, что средняя «длина жизни» темы в общественном обсуждении заметно упала, и мы начали быстро переключаться между информационными объектами.
Кроме того, появился эффект, который исследователи называют усадкой культурной памяти. Современные эксперименты говорят: молодое поколения все хуже пересказывает прочитанное и быстрее забывает детали. Формат коротких видео, например TikTok, усиливает этот тренд — внимание закрепляется на эффектных фрагментах, но не строит целостную информацию. TikTok и другие платформы короткого формата явно связаны с уменьшением концентрации и ухудшением способности к длительной фокусировке.
На этом фоне появление ChatGPT выглядело логичным продолжением. Если Google подстроил память, смартфоны сбили концентрацию, а соцсети — внимание, то генеративные модели пошли дальше. Они не только ищут или хранят информацию, они выполняют мыслительную работу: формулируют ответ, выстраивают аргумент, пишут текст. Удобно? Безусловно. Опасно? Определенно. Если не задействовать мозг в усилиях, память, критический анализ и креативность постепенно угасают.
Искусственный интеллект меняет сам процесс мышления
Если поисковики и смартфоны главным образом изменили работу памяти и внимания, то генеративный искусственный интеллект пошел дальше. Он вмешался в сам ход рассуждений.
Сегодня мы доверяем алгоритмам те функции, которые раньше считались сердцевиной ума: поиск фактов, построение аргументов, формулировку идей.
В когнитивной науке это называют cognitive offloading, то есть «выгрузкой» умственной работы наружу. Раньше мы держали информацию в голове, а теперь передаем ее внешней системе. Работа становится проще, но долговременная память сохраняет меньше знаний, а навыки анализа развиваются хуже.
С похожей ситуацией ученые столкнулись еще до появления ChatGPT. Массовое использование GPS-навигаторов показало: пространственная память у людей заметно ослабевает, они хуже запоминают маршруты и теряют способность ориентироваться в незнакомых местах. ChatGPT действует по тому же принципу, только в области рассуждений. Как GPS лишает нас внутренней карты города, так ИИ ослабляет внутреннюю карту аргументации и логики.
Именно здесь проявляется следующий эффект — automation bias. Люди склонны доверять автоматической подсказке даже тогда, когда она неверна. Это давно наблюдали в авиации и медицине, а сегодня мы видим то же самое в работе с LLM. Пользователь чаще соглашается с уверенно сформулированным ответом модели, чем с собственными сомнениями.
Эксперты также отмечают проявление феномена иллюзии понимания. Психологи еще двадцать лет назад показали: достаточно услышать стройное объяснение, чтобы возникло ощущение «я понял». На деле же знания не прибавилось. ChatGPT усилил этот эффект. Текст модели звучит убедительно, но за гладкой формой не всегда стоит глубина анализа. Человек уходит с ощущением ясности, хотя в действительности не узнал ничего нового.
Креативность тоже оказывается под ударом. С помощью ИИ люди действительно производят больше идей, но средняя оригинальность снижается. Эксперимент, проведенный в 2024 году, показал: генеративные модели ускоряют процесс генерации, однако чаще подталкивают к вариациям привычных шаблонов, а не к прорывным открытиям.
Искусственный интеллект с анатомией мозга
Сегодня нейросети подходят к естественному пределу: объёмы человеческих знаний, на которых они росли, уже не могут поддерживать прежние темпы развития. Чтобы сделать следующий шаг, им приходится впервые выйти за пределы накопленного опыта и учиться жить, ошибаться и открывать новое самостоятельно.
Все эти эффекты дополняют общую картину. Искусственный интеллект становится фильтром, через который мы смотрим на мир.
ИИ снимает нагрузку, но лишает человека опыта, необходимого для формирования памяти, критического анализа и способности видеть нестандартные связи.
Процесс образования теряет смысл
Когда в конце 2022 года ChatGPT ворвался в университеты и школы, преподаватели отреагировали мгновенно. Экзамены, курсовые и контрольные внезапно перестали быть проверкой знаний. Ответ можно было сгенерировать за секунды. Запреты последовали быстро: ChatGPT приравняли к шпаргалке. Но проблема оказалась глубже.
Образование — это не только конечный результат в виде ответа или эссе. Это длинный путь, где студент учится формулировать проблему, разбирать ее на части, искать и проверять источники, строить аргументы. Именно эта последовательность шагов развивает память, внимание и аналитическое мышление. Когда алгоритм предлагает готовый текст, весь этот путь исчезает.
Недавние эксперименты подтверждают опасения. В 2024 году группа исследователей провела серию рандомизированных тестов. Одни студенты решали задачи самостоятельно, другие пользовались ChatGPT. Первые тратили больше времени и сил, но позже лучше усваивали материал и успешнее справлялись с тестами. Вторые демонстрировали быстрый результат, но знания оказывались поверхностными. Авторы сделали прямой вывод: генеративный ИИ способен навредить обучению, если его использовать без осмысления и проверки.
Эта ситуация напоминает уже упоминаемый эффект GPS. Когда мы следуем за навигатором, дорога кажется легкой, но память маршрутов не закрепляется. В результате мы хуже ориентируемся без подсказки. ChatGPT работает по такому же принципу. Он показывает правильное решение, но лишает студента когнитивной тренировки. Мозг перестает «строить карту» знаний, ведь путь уже проложен машиной.
Международные организации подтверждают тревогу. ЮНЕСКО предупреждает о риске «дескиллинга» — утраты ключевых умений анализа и аргументации. ОЭСР отмечает рост плагиата и падение академической честности.
В отчетах международных организаций появляется образ нового поколения студентов: они умеют переписать ответ, но не умеют его построить.
Так формируется «потерянное поколение». Молодые люди знают, как спросить у ИИ и как оформить текст. Но они все реже учатся думать самостоятельно и работать самостоятельно. Образование перестает быть тренировкой ума и развитием мышления, а превращается в сервис для быстрой выдачи результатов.
Экономика выигрывает в скорости, но теряет глубину
Если в образовании риски от ChatGPT уже очевидны, то в экономике картина выглядит двойственной. На первый взгляд, генеративный ИИ приносит ощутимую пользу: повышает производительность, сокращает время работы, выравнивает уровень сотрудников. Но за этими плюсами скрывается эффект «консервации навыков». Сотрудники начинают полагаться на готовые решения и перестают развиваться дальше.
Одно из первых масштабных исследований провели ученые MIT и Стэнфорда на нескольких тысячах операторов колл-центров. Часть сотрудников получила доступ к ИИ-подсказкам, другая работала без них. Результаты выглядели впечатляюще: новички стали работать примерно на 35% продуктивнее и быстро догоняли опытных коллег. Но дальнейший рост у профессионалов был минимальным. Авторы сделали вывод: ИИ помогает слабым «подтянуться», но не развивает сильных. Он сглаживает разрыв, но одновременно снижает стимулы учиться и оттачивать мастерство.
Похожий эффект зафиксировали в MIT при анализе письменных задач. Участники с ИИ писали быстрее, тексты были более связными и чистыми. Но вместе с этим снизилось разнообразие стиля и оригинальность решений.
ИИ фактически подталкивал к усредненному формату — удобному для бизнеса, но ограничивающему креативность.
Одно из показательных исследований провели Harvard Business School и Boston Consulting Group. Его назвали «Jagged Frontier» (Рваный фронт). Там, где задачи хорошо совпадали с сильными сторонами модели (отчеты, резюме, короткие тексты), сотрудники с ИИ работали заметно лучше. Но когда задание требовало нетривиального анализа или нестандартного решения, результаты падали. Люди склонялись к готовому ответу модели, даже если он был неверным, и допускали больше ошибок.
Как создать ИИ-ассистента, который работает за вас
Коме этого, исследование Harvard и BCG выявило еще одну тревожную деталь. Сотрудники с доступом к ИИ чаще соглашались с неверными ответами модели, если они были сформулированы уверенно. Иначе говоря, срабатывал automation bias: доверие алгоритму оказывалось сильнее, чем собственный опыт или хоть какое-то критическое мышление. Этот эффект, известный по авиации и медицине, теперь закрепляется и в офисах.
Мы выигрываем время сегодня, но завтра можем потерять способность к сложному мышлению.
Экономика в итоге получает быстрый прирост эффективности, но ценой долгосрочного риска. ИИ ускоряет выполнение стандартных задач, но отучает сотрудников от самостоятельного поиска нестандартных решений.
Общество зомби становится реальностью
Фраза «без калькулятора я не вычислю дробь» давно звучит как шутка, но все чаще это описание реальности. Эксперименты показали: люди, имеющие под рукой быстрый доступ к интернету, хуже справляются с задачами на воспоминание. Мозг словно перестает держать знания внутри, ведь их всегда можно достать снаружи.
Аналогичная тенденция проявляется и в другом ключевом навыке, способности работать на пределе. Психологи называют это effortful control. Когда обучение требует усилий, мозг укрепляет память и внимание. Но генеративный ИИ снимает нагрузку, а вместе с ней и тренировку. В недавних экспериментах студенты, активно пользовавшиеся ChatGPT, позже показывали худшие результаты. Не потому что они были слабее, а потому что их мозг просто не проходил через трудный процесс извлечения знаний.
Под угрозой оказывается и исследовательская дисциплина. Письменные работы, которые раньше требовали поиска источников и построения аргументов, все чаще заменяются готовым текстом от ИИ. ЮНЕСКО предупреждает: это ведет к подрыву академической честности и потере базовых навыков анализа. ОЭСР добавляет: мы рискуем вырастить поколение, которое умеет копировать правильный ответ, но не умеет дойти до него самостоятельно.
Экономика демонстрирует похожие механизмы. Как уже отмечалось, полевые исследования MIT и NBER показали: ИИ резко поднимает эффективность новичков, но почти не влияет на сильных сотрудников. В результате средний уровень растет, а стимул для профессионального роста уходит. Harvard и BCG описали этот феномен как «рваный фронт»: там, где задачи стандартные, ИИ помогает, а вот в сложных и нетипичных ситуациях он чаще сбивает с толку и ведет к ошибкам.
Так формируется образ «общества зомби». Люди продолжают пользоваться технологиями, но все реже тренируют собственное мышление. И если однажды алгоритмы выключат (по технической аварии или политическому решению) мир быстро обнаружит, что без цифрового костыля он не способен справляться даже с простыми задачами.
Как не отдать интеллект на аутсорс
Мрачные прогнозы не означают, что деградация неизбежна. Все зависит от того, какую роль мы отведем искусственному интеллекту: станет ли он костылем, на который удобно опереться, или тренажером, который развивает мышление.
Исследования показывают, что если встроить ИИ в учебу и работу грамотно, он способен не ослаблять когнитивные функции, а усиливать их.
Один из подходов уже получил название Socratic AI. Вместо готовых ответов модель задает уточняющие вопросы, заставляет формулировать гипотезы и проверять логику. Эксперименты показывают: студенты в таком «сократическом режиме» усваивают материал глубже, потому что вынуждены пройти весь путь анализа, а не просто переписать результат.
Еще одна стратегия — cognitive forcing. Сначала человек должен предложить собственное решение, и только потом получает подсказку от ИИ. Этот прием снижает риск автоматического согласия с машиной и помогает сохранить критическое мышление. В экспериментах он заметно уменьшал эффект automation bias и повышал точность решений.
Классическая педагогическая психология напоминает и о старом, но проверенном инструменте — тренировке памяти через retrieval practice. Самый надежный способ закрепить знания это не перечитывание, а воспроизведение по памяти. Если чередовать работу с ИИ с такими «чистыми блоками», где студент решает сам, усвоение материала становится прочнее.
Не случайно ЮНЕСКО и ОЭСР в своих рекомендациях делают акцент именно на таких форматах. В отчете UNESCO отмечается, что генеративный ИИ может приносить пользу только в условиях доказательного дизайна обучения, где студент выполняет ключевую работу ума, а алгоритм используется для обратной связи и проверки. ОЭСР же подчеркивает, что нужны не запреты, а строгие рамки ответственного применения, чтобы ИИ не подменял, а усиливал человеческий интеллект.
Звучит обнадеживающе. Значит, альтернатива сценарию «общества зомби» существует. Все зависит от того, сможем ли мы превратить ИИ в инструмент вопросов, проверки и тренировки, а не в кнопку готового ответа. Вопрос теперь в том, хватит ли у системы образования и у самих пользователей воли и дисциплины выбрать этот путь. Тренировки — это всегда не просто и часто через «не могу». От того, какой выбор мы сделаем, зависит, будет ли следующий век эпохой готовых решений или временем новых открытий.