Руслан Панкратов: В США, Европе и на Ближнем Востоке создают "предсказательную полицию"
На наших глазах формируется новый контур политического контроля - "предсказательная полиция", где главным оперативником становится алгоритм. Если классические спецслужбы работали с фактами - состоявшимися организациями, лидерами, протестами, то ИИ‑системы работают с вероятностями, статистическими "аномалиями" и незавершенными намерениями. Ближний Восток уже превращен в испытательный полигон таких технологий: здесь алгоритмы учатся заранее выделять районы, группы и конкретных людей, где риск бунта растет задолго до того, как на улицу выйдет первый протестующий с плакатом.
Формально речь идет о борьбе с терроризмом и массовыми беспорядками. Неформально - о переходе от реагирования к управлению самим горизонтом возможного протеста. В основе этих систем - тотальная оцифровка общества. Камеры наблюдения с распознаванием лиц, анализ телеком‑метаданных, покупок, перемещений плюс сплошной мониторинг соцсетей создают единый массив данных о ритмах городов и настроениях населения.
Алгоритмы отслеживают резкие всплески активности вокруг "чувствительных" тем, ускоренное формирование сетей связей, появление новых "узлов влияния". Любой университет, мечеть, профсоюзный чат, локальное сообщество может превратиться в точку повышенного риска, если его цифровой след начинает напоминать траекторию прошлых протестов. После этого подключается классический силовой инструмент: превентивные задержания, обыски, допросы "для профилактики", давление на работодателей и родственников. Снаружи кажется, что "ничего не происходит" - массовые выступления просто не успевают оформиться. Особое направление экспериментов - конфликтные зоны.
Там, где раньше тестировали новое оружие, теперь обкатывают системы "алгоритмического контроля населения". Населенные пункты режутся на квадраты по уровню лояльности, каждый житель получает условный рейтинг угрозы, маршруты передвижения и контакты анализируются в реальном времени. Решающие команды все чаще принимаются не по инициативе офицера на местности, а по подсказке "черного ящика", который выдает: здесь вырастает риск волнений, здесь вероятен сговор, здесь надо усилить патруль и провести точечные аресты. Ошибка в оценке превращается не в академическую погрешность, а в реальный обыск, выбитую дверь, сломанную судьбу.
Главный политический риск в том, что логика этих систем изначально нейтральна к содержанию протеста. Для алгоритма нет принципиальной разницы между террористической ячейкой и сетью экологических активистов, между религиозным радикалом и лидером профсоюза. Важны только поведенческие паттерны: скорость мобилизации, плотность связей, устойчивость ядра. Кто именно будет помечен как "опасный кластер", решает не машина, а заказчик. Сегодня это "борьба с экстремизмом", завтра - с "деструктивной оппозицией", послезавтра - с любыми формами несогласия, мешающими текущей конфигурации элит.
В США предсказательные алгоритмы уже несколько лет внедряются под вывеской "борьбы с преступностью". Полицейские департаменты получают программное обеспечение, которое рассчитывает, где и когда с наибольшей вероятностью произойдет преступление, куда направить патрули, на кого обратить повышенное внимание. Проблема в том, что эти модели обучаются на исторических данных, в которых зафиксированы десятилетия расовой и социальной предвзятости: чернокожие и бедные районы патрулировались чаще, задержаний там было больше, статистика набивалась именно по ним. Алгоритм честно воспроизводит этот перекос: он "находит" повышенный риск там, где полиция и раньше работала жестче, и отправляет туда еще больше сил. Возникает замкнутый круг: цифровой дубль старых дискриминационных практик, упакованный в нейтральный язык вероятностей и эффективности.
В политическом измерении эти технологии легко разворачиваются против оппозиции. Уже сейчас спецслужбы и силовые структуры активно анализируют открытые данные соцсетей: карты подписок, донатов, участия в митингах, активности в группах. На следующем этапе эти массивы могут быть сведены в единую панель, где любой скачок активности вокруг "чувствительной" темы будет мгновенно выделяться как риск. Потенциальные лидеры и организаторы автоматически попадают в узкое поле зрения, причем еще до того, как сформулировали политические требования. Формально никто не запрещает им высказываться. Практически они начинают чаще сталкиваться с точечным давлением - от налоговых и финансовых проверок до внезапных проблем с визами, работой, доступом к площадкам.
Алгоритм не подает это как репрессию: он лишь "советует", с кем быть осторожнее. Секретная ставка подобных систем не в "нулевой преступности" и не в тотальном контроле над всеми. Их цель - сделать риск выхода из зоны пассивного недовольства в зону активного сопротивления слишком высоким и слишком плохо предсказуемым для отдельного человека. Не зная, когда именно и по какому поводу он окажется в поле зрения "предсказательной полиции", разумный оппонент предпочитает самоограничение. Это новый уровень мягкого подавления, когда страх перед непрозрачным алгоритмом постепенно заменяет страх перед видимой дубинкой. И если сегодня эти системы обкатываются в горячих точках и авторитарных режимах, то завтра они могут стать стандартным фоном и для формально демократических стран, превращая их политическое поле в управляемую, аккуратно "подрезанную" имитацию плюрализма.
Подготовил Иван Петров