Новое исследование показывает, что алгоритмическая манипуляция лентами социальных сетей может измеримо снижать политическую поляризацию, даже без сотрудничества платформ. Исследователи из Вашингтонского и Северо-Восточного университетов разработали расширение для браузера, использующее большие языковые модели (LLM) для тонкой перестановки публикаций в лентах пользователей, отодвигая на задний план экстремальный контент и, в некоторых случаях, слегка усиливая его для сравнения. Результаты, опубликованные в Science, демонстрируют явное влияние на отношение пользователей к противостоящим политическим группам.
Эксперимент и его результаты
В основе исследования лежало участие более 1200 человек, которые использовали X (ранее Twitter) с модифицированными лентами в преддверии президентских выборов в США в 2024 году. Одна группа видела, как поляризующий контент приглушается, уменьшая его видимость; другая — как он усиливается. Ключевой вывод: те, кто подвергался воздействию приглушенных провокационных публикаций, сообщали о более теплом отношении к противоположным политическим группам. Этот сдвиг измерялся с помощью шкалы «температуры чувств», где участники оценивали свои эмоции. Изменение составило в среднем два-три градуса, что является значительным эффектом, учитывая, что исторические изменения политических настроений в США составляют примерно три градуса за три года.
В то же время, участники, видевшие усиленный поляризующий контент, сообщали о более холодных чувствах по отношению к противостоящим группам, что еще раз демонстрирует влияние алгоритма. Вмешательство также повлияло на эмоциональные реакции: те, кто подвергался воздействию приглушенного контента, сообщали о меньшем количестве грусти и гнева.
Обход контроля платформы
Это исследование является новаторским, поскольку обходит традиционный барьер для изучения влияния алгоритмов: доступ к платформам. Вместо того, чтобы полагаться на сотрудничество со стороны социальных медиа-компаний (которые редко предоставляют полную прозрачность), исследователи создали инструмент, который работает независимо внутри браузеров пользователей. Как объясняет Мартин Савески, один из авторов из Вашингтонского университета: «Только платформы обладали властью формировать и понимать эти алгоритмы. Этот инструмент дает эту власть независимым исследователям.»
Этот метод обходит одобрение платформы, позволяя проводить реальные тесты, не полагаясь на готовность технологических гигантов делиться данными или контролировать ситуацию.
Последствия и дальнейшие исследования
Долгосрочные последствия таких вмешательств остаются неясными. Виктория Олдембурго де Мелло, психолог из Университета Торонто, отмечает, что наблюдаемые эффекты могут либо угасать, либо усиливаться со временем, что является важной областью для будущих исследований. Исследователи сделали свой код общедоступным, чтобы стимулировать дальнейшие исследования и воспроизведение результатов.
Эта структура также имеет потенциал, выходящий за рамки политической поляризации. Команда планирует изучить вмешательства, связанные с благополучием и психическим здоровьем, используя LLM для анализа и модификации лент социальных сетей для достижения более широких преимуществ. В то время как текущий инструмент работает в основном на платформах на основе браузера, исследователи изучают способы адаптации его для использования с мобильными приложениями, что представляет технические проблемы, но остается ключевой целью.
Успех исследования демонстрирует, что алгоритмическая манипуляция лентами социальных сетей может оказывать измеримое влияние на отношение пользователей, даже без сотрудничества платформ. Этот вывод ставит под сомнение утверждение о том, что поляризация вызвана исключительно поведением пользователей, и подчеркивает ответственность за разработку алгоритмов в формировании общественного дискурса.
