Кто такие слопперы и как не стать одним из этих «ИИдиотов». Объясняют эксперты

Кажется, будущее наступило: нейросети готовы дать нам ответ на любой вопрос. Правда, вся их нейросетевая мудрость и доступ ко всему интернету разом не гарантируют, что этот ответ будет правильным. Излишне полагающихся на новых ИИ-гуру называют слопперами, и если вас так назвали, впору обидеться или задуматься, ведь ничего хорошего в этом нет. Как вера в сгенерированный контент может стоить вам нервов, денег и здоровья и как не пополнить ряды доверчивых ИИдиотов, «Секрету» объяснили эксперты.

Кто такие слопперы и как не стать одним из этих «ИИдиотов». Объясняют эксперты
© Секрет Фирмы

Первые шаги ИИ в генерировании текстов и изображений напоминали поделки ребёнка в детском саду — пользователи умилялись его наивным попыткам подсчитать пальцы и вычурным сочетаниям слов.

По мере развития нейросетей их работа становилась всё качественнее. И в 2025 году человечество уже дошло до стадии, когда для того, чтобы различить сгенерированный контент, приходится прибегать к другим нейросетям.

Зачастую отличить сгенерированное видео от обычного можно только по элементам абсурда, которые добавляют авторы специально. Например, если кот начинает танцевать, младенец петь басом, а собака показывает «козу» внезапно появившимися на лапе человеческими пальцами.

Но стоит нейросети сделать видео или текст хоть немного серьёзным, правдоподобным или даже наукообразным, и критическое мышление пользователей начинает таять, как масло на солнце.

В англоязычном интернете за низкокачественным контентом, сгенерированным моделями вроде Midjourney и ChatGPT, закрепилось слово slop — «помои», «баланда», «мусорный контент». Соцсети испытывают настоящий наплыв аккаунтов, до 90% которых состоит из наскоро сгенерированных нейросетевых видео, фейковых новостей и ценных советов от нейросеток на все случаи жизни: от здоровья до выбора партнёра.

Тех, кто такое производит, и особенно тех, кто бездумно это потребляет, окрестили слопперами (slopper от смеси понятий sloppy — «небрежный» и helper — «помощник»). Так говорят про людей, которые «спрашивают ИИ обо всем» и пускают его в ситуации, где разумнее включить собственную голову.

Термин «slopper» выстрелил летом 2025-го после вирусного видео TikTok-пользователя intrnetbf про людей, «которые консультируются с чатботом даже на свидании».

Слоппер — человек, который использует ИИ для решения любых задач и некритично относится к его советам. По-русски иногда также называют таких ИИдиотами.

Хотя, конечно, проблема некритичного отношения к ИИ-контенту существовала гораздо раньше. Но сейчас речь не просто о некритичном отношении. Речь идёт о строительстве нового мира, культуры, где убедительность важнее фактов, а люди своими руками отдают сознательный выбор на откуп правдоподобной симуляции мышления, лишь бы не брать на себя ответственности за решения, предупреждают эксперты.

Как слопперы сталкиваются с реальной жизнью

Пожалуй, один из самых обидных моментов: когда, доверившись ИИ-советам и не перепроверив их, люди принимают решения, оборачивающиеся потерей денег и времени. Например, в случае если речь идёт о правильном оформлении документов. Нейросети плохо справляются с юридическими нюансами разных юрисдикций, могут ориентироваться на устаревшую информацию и даже не предупредить о недостоверности своих источников.

В 2025 году произошло как минимум два таких случая: - Австралийского писателя Марка Полларда в марте не пустили в страну из-за совета ChatGPT. Он застрял в аэропорту, потому что перед поездкой спросил у нейросети, нужна ли ему виза для посещения Чили. Та ответила отрицательно, но вот у пограничников были другие инструкции. Писатель так расстроился, что спросил у чат-бота, можно ли подать на него в суд за неправильный ответ, но тот огорчил его повторно: не получится. - В августе на те же грабли наступила пара блогеров из Испании: нейросеть сказала им, что для визита в Пуэрто-Рико гражданам её страны не нужна виза. И скромно умолчала, что вместо этого с путешественника требуется электронный пропуск ESTA, который надо оформлять заранее — в аэропорту этого не сделать.

Однажды я попросил ChatGPT составить мне маршрут для прогулки по Выборгу. Чат включил в него места, которых не существует не только в городе, но на всей планете Земля. Так что проверять результаты работы ИИ нужно всегда.
митрий Махлин партнёр и директор по развитию HRlink

Что нас заставляет верить ИИ

Эксперты выделили несколько причин, по которым обычный пользователь за считаные дни общения с нейросетью может стать заядлым слоппером. Одни из них связаны с человеческой природой, но другие — непосредственно с особенностями новой для людей технологии.

© Создано при помощи нейросети

Незнание предмета

Нейросети представляются этакой палочкой-выручалочкой для тех, кому некогда вдумчиво гуглить и изучать вопрос, оценивая авторитетность источников. Они на любой запрос способны дать исчерпывающий (казалось бы) ответ.

И если пользователь не имеет о предмете ни малейшего представления, он вполне этим удовлетворится. Просто потому что не знает, где именно здесь может таиться неточность.

Мы изначально настроены получить квалифицированный ответ на вопрос, в котором у нас самих нет экспертизы. Если ты сам не разбираешься в вопросе, то внушить можно всё что угодно.
митрий Махлин

Уверенный тон

В чём нейросети действительно поднаторели, так это в том, чтобы нести чушь с крайне уверенным видом. Информация подаётся структурированно, наукообразно, аргументированно, с разными примерами — и этим усыпляется бдительность.

Есть эффект уверенного тона ChatGPT и его аналогов: они связно и грамотно формулируют текст, а наш мозг устроен так, что уверенность равна авторитету, хотя это далеко не всегда так. Кроме того, существует «эффект зеркала», когда модель начинает использовать в ответах наши слова, подражать нашему стилю. Это подсознательно также заставляет воспринимать её в роли доверенного собеседника-эксперта по теме.
митрий Махлин

Отсутствие критического мышления

Будем честны, умение работать с информацией — это навык, а критическое мышление — навык сложный, требующий развитой логики, скепсиса, привычки задавать правильные вопросы и не удовлетворяться ответами быстрого приготовления.

Можно сто раз сказать, что это полезно и нужно, но, если люди не хотят развивать эти навыки или не могут в силу особенностей характера и мышления, истории с излишней доверчивостью обречены повторяться снова и снова. С ИИ и без него.

Слепое доверие — явление не новое. Люди доверяют телевизору, ссылкам в интернете, мнению «экспертов». Теперь настала очередь ИИ. Причина проста: во-первых, критическое мышление не всем свойственно, во-вторых, уметь анализировать — это определенный труд, а получить быстрый ответ на свой вопрос удобнее и к тому же значительно упрощает жизнь, особенно в сегодняшнем бесконечном потоке информации.
иктор Сизов IT-эксперт, сооснователь versta.io

Эксперт по ИИ Александр Лебедев добавил, что в плане человеческой природы верно и обратное. Параноики ИИ доверять не будут, впрочем, как и людям.

Я вижу здесь две крайности: одни полностью доверяют ответам ИИ, другие — не доверяют им вовсе. Это скорее вопрос личного восприятия и особенностей характера, чем самой технологии.
ристина Коваленко гендиректор Fork-Tech

Непонимание сути нейросетей

Помните анекдот про «среднюю температуру по больнице»? А про динозавра, шансы встретить которого на улицах всегда равны 50%? Или про сломанные часы, дважды в день показывающие правильное время?

Корректность ответов нейросетей в большинстве случаев будет выше 50%. Однако надо понимать, что они обучаются на данных, которые им предоставляют люди, в том числе за счёт поиска в интернете. А это значит, что наряду с выверенными и точными данными в его базу вполне могут попасть откровенно бредовые.

И это ещё полбеды, другая беда — это так называемое «галлюцинирование» нейросетей.

Во многом роль играет непонимание того, как работает ИИ. Для большинства людей это магия или научная фантастика, воплотившаяся в реальной жизни. Маркетинг и продвижение ИИ говорят о его достоинствах, но забывают сказать о промахах. Те же, кто имеет представление о том, как работает технология, знают о её минусах и недостатках. Например, о склонности к галлюцинациям при недостатке данных.
лександр Лебедев старший разработчик систем искусственного интеллекта Innostage

Часто нейросети не знают правильного ответа, но не могут признаться в этом (что частично решено, например, в пятой ChatGPT, но только частично). И выдают правдоподобную наукообразную чушь, достраивая пробелы своих знаний с помощью машинной логики и той самой «средней температуры» по источникам.

Как не стать «слоппером»

Сейчас мы смеёмся над людьми, которые доверяются советам нейросетей, потому что для человечества эта игрушка относительно новая и есть ощущение «хайпа». Но очень маловероятно, что этот хайп так же быстро пройдёт, как мода на какую-нибудь игрушку типа спиннера. ИИ и нейросети — это будущее человечества, и поколение альфа уже растёт с полным принятием этой части жизни.

Возможно, когда-нибудь ИИ разовьётся настолько, что проблема некорректных советов станет неактуальной. Но до тех пор очень важно не расслабляться и чётко осознавать и границы его возможностей, и необходимость продолжать мыслить самостоятельно, указали эксперты.

Чтобы не становиться «слоппером», важно сохранять критический взгляд. Здесь работает всё то же самое, что и в жизни: эрудиция, образование, насмотренность. Чем шире твой кругозор, тем легче замечать неточности и отделять ценные идеи от ошибок. По сути, совет простой — учиться и развиваться. Тогда ИИ остаётся инструментом, а не заменой собственного мышления.
ристина Коваленко

Дмитрий Махлин поделился несколькими лайфхаками, которые помогут сохранить критическое мышление при активном общении с «всезнающими» нейросетями. - Сначала думайте сами, а только потом задавайте вопрос нейросети. Так можно успеть сформулировать собственную позицию, а потом произвести проверку. - Всегда просите показать источник — откуда ИИ взял эту информацию. Пусть проведет фактчек-анализ. Оцените актуальность источников — старые могут быть нерелевантны. - Поймать ИИ на «выдумывании» помогает проверка логики ответа, но тут как раз возможны осечки — логику, даже неправильную, нейросети выстраивают мастерски.

И главное: при использовании ИИ я бы рекомендовал всегда исходить из того, что его ответы — ложь. Существует презумпция невиновности, а это презумпция лжи. Всегда считайте, что нейросеть сказала вам нечто, что требует обязательной перепроверки.
митрий Махлин

Александр Лебедев подсказал, что немного снизить риски получить некачественный ответ поможет улучшение навыка промптинга — формулирования заданий для нейросети с учётом всех тонкостей и машинной логики. Он посоветовал следующее: - Давать ИИ больше контекста, это прививка от галлюцинаций. - Качественнее формулировать промт, прописывая в нём напрямую, чтобы не придумывал факты и проверял их подлинность (если у него есть доступ к поиску в интернете). - Выбирать более сильные, современные и защищённые от галлюцинаций модели.

Обычные люди с качеством ответов ИИ сейчас мало что могут сделать. Это проблема разработчиков. Так что остаётся базовый навык факт-чекинга и поиска первоисточников информации. Людям с этим навыком добывать информацию сложнее, но зато они могут быть уверены в ней гораздо больше.
лександр Лебедев

Очень (не)этичный собеседник. Почему от ИИ нельзя ожидать морали и сочувствия и когда стоит быть с ним настороже

Зависимость от ИИ: чем грозят «любовь» и «дружба» с чат-ботом

ИИ против психики: как бесконтрольное общение с нейросетями крадёт у людей разум

Вместо выводов

Привычка спрашивать совета у нейросетей в любых обстоятельствах формируется очень быстро по мере того, как человек начинает осваивать их и понимает принцип их использования. В целом это не так уж ужасно — пока это просто развлечение.

Проблемой эта привычка становится, когда человек начинает массово делегировать ИИ свои решения, не задумываясь, как это влияет на его самостоятельность и когнитивные функции. И дело даже не в том, что нейросети всегда врут и предлагают плохие советы — часто даже хорошие. А в том, что люди перестают задавать важные вопросы самим себе.

Использовать ИИ нужно. По сути, применение этой технологии становится таким же важным, как когда-то появление электричества. Но у каждой технологии есть особенности и важно уметь разбираться в них, пропуская информацию через свой опыт, знания, критическое мышление и анализ. В целом же с наступлением «эры ИИ» те, кто обладает достаточным уровнем образования и кругозором, усилят свои знания при помощи ИИ. Остальным же нужно стремиться повышать уровень знаний. Иначе они так и будут делать неверные действия на основе «плохих советов».
иктор Сизов