Утренний ритуал миллиардов людей начинается одинаково: разблокировка смартфона, свайп по экрану, погружение в бесконечную ленту. Ожидание простое — увидеть что-то интересное, узнать новости друзей, отвлечься на пару минут. Реальность оказывается иной: агрессивные комментарии, политические баталии, фейковые новости и бесконечный поток негатива.
Недавнее исследование команды учёных из Nanyang Technological University развеяло последние иллюзии технооптимистов. Имитационная модель на базе ИИ-агентов протестировала шесть популярных решений для «исправления» социальных сетей. Результат обескураживает: поменять алгоритм — всё равно что переставить мебель в горящем доме.

Алгоритмы против человека
Исследование, опубликованное в журнале New Scientist в 2025 году, стало первой попыткой системно проверить эффективность предлагаемых улучшений социальных платформ. Учёные создали виртуальную среду с тысячами ИИ-агентов, имитирующих поведение реальных пользователей — от умеренных центристов до радикальных активистов.
Шесть протестированных стратегий включали возврат к хронологической ленте, отключение счётчиков лайков, принудительное продвижение контента от идеологических оппонентов, случайную выборку постов, приоритизацию качественного контента и полное отключение рекомендательных систем. Каждая модификация обещала снизить поляризацию и токсичность дискуссий.
Реальность оказалась суровой. Изменения влияли всего на 2-6% показателей межгруппового взаимодействия. Хуже того, некоторые «улучшения» приводили к обратному эффекту. Отключение публичной статистики лайков, например, не только не снизило конкуренцию за внимание, но и усилило распространение дезинформации — пользователи потеряли социальные маркеры для оценки достоверности контента.

Непреложные факты и мнения
Параллельные исследования подтверждают системный характер проблемы. Команда из Phys.org обнаружила механизм сужения внимания: алгоритмы создают туннельное видение, где каждый следующий пост должен быть ярче предыдущего для удержания пользователя. Эмоциональная амплитуда растёт, порог чувствительности падает, формируется зависимость от информационных всплесков.
WebProNews в своём анализе подчёркивает экономическую подоплёку: платформы зарабатывают на времени пользователей, конвертируя его в рекламные показы. Провокационный контент удерживает внимание эффективнее нейтрального в 2,7 раза. Математика простая — чем больше возмущения, тем выше прибыль.
Пользовательские дискуссии на Reddit демонстрируют растущее осознание проблемы. Консенсус формируется вокруг мрачного вывода: социальные сети работают именно так, как задумано. Токсичность — не баг, а фича, встроенная в саму бизнес-модель.

Док-хаус экспериментов
Детальный разбор шести стратегий раскрывает фундаментальную дилемму. Хронологическая лента снижает манипулятивность, но убивает релевантность — важные новости тонут в потоке тривиального контента. Продвижение оппозиционных мнений теоретически расширяет кругозор, на практике — усиливает конфронтацию и создаёт эффект «осаждённой крепости».
Случайная выборка постов разрушает эхо-камеры, одновременно уничтожая персонализацию и делая платформу непригодной для целевого общения. Приоритизация качественного контента упирается в невозможность объективной оценки качества без человеческой модерации масштабов, экономически нереализуемых при миллиардах постов ежедневно.
Прибыль побеждает благополучие
Отчёт Digital 2025 фиксирует: более 5 миллиардов человек ежедневно участвуют в гонке за внимание. Рынок таргетированной рекламы достиг 600 миллиардов долларов. Средний пользователь проводит в социальных сетях 2,5 часа в день — это 38 дней в году чистого экранного времени.

Экономика внимания построена на эксплуатации базовых психологических механизмов: страха упустить важное (FOMO), потребности в социальном одобрении, склонности к подтверждению собственных убеждений. Алгоритмы научились использовать эти уязвимости с хирургической точностью, создавая персонализированные ловушки для каждого пользователя.
Децентрализация и новая этика
Альтернативные модели существуют, но сталкиваются с системными барьерами. Децентрализованные платформы на блокчейне обещают вернуть контроль пользователям, но страдают от проблем масштабирования и удобства использования. Mastodon, например, остаётся нишевым решением для технически подкованной аудитории.
Center for Humane Technology предлагает концепцию «технологий благих намерений» — дизайн, приоритизирующий благополучие пользователей над метриками вовлечённости. Политики обсуждают обновление антимонопольного законодательства и усиление защиты персональных данных. Проблема в том, что регуляторные механизмы отстают от технологического развития на годы.
Фундаментальный вопрос остаётся без ответа: совместима ли сама идея глобальной социальной платформы с психологическим здоровьем общества? Эволюция не подготовила человеческий мозг к обработке мнений миллионов незнакомцев, к постоянному социальному сравнению в планетарном масштабе, к информационной перегрузке такой интенсивности.

Реализм вместо оптимизма
Исследования показывают: техническая оптимизация алгоритмов — это попытка лечить симптомы, игнорируя болезнь. Пока бизнес-модель построена на монетизации внимания через эмоциональную манипуляцию, любые косметические изменения останутся неэффективными.
Решение требует радикального переосмысления цифровой коммуникации. Возможно, будущее за локальными сообществами с ограниченным числом участников, за платными подписками вместо рекламной модели, за строгой регуляцией алгоритмической подачи контента. Только коллективное осознание масштаба проблемы и готовность к системным изменениям способны разорвать порочный круг токсичности, в котором оказалось цифровое общество.
Изображение в превью: