Штучний інтелект знижує політичну поляризацію у соціальних мережах

6

Нове дослідження показує, що алгоритмічна маніпуляція стрічками соціальних мереж може вимірно знижувати політичну поляризацію, навіть без співпраці платформ. Дослідники з Вашингтонського та Північно-Східного університетів розробили розширення для браузера, що використовує великі мовні моделі (LLM) для тонкої перестановки публікацій і, в деяких випадках, трохи посилюючи його для порівняння. Результати, опубліковані в Science, демонструють явний вплив на ставлення користувачів до політичних груп, що протистоять.

Експеримент та його результати

В основі дослідження лежало участь понад 1200 осіб, які використовували X (раніше Twitter) із модифікованими стрічками напередодні президентських виборів у США у 2024 році. Одна група бачила, як приглушується поляризуючий контент, зменшуючи його видимість; інша – як він посилюється. Ключовий висновок: ті, хто зазнавав впливу приглушених провокаційних публікацій, повідомляли про більш тепле ставлення до протилежних політичних груп. Цей зсув вимірювався за допомогою шкали «температури почуттів», де учасники оцінювали свої емоції. Зміна склала в середньому два-три градуси, що є значним ефектом з огляду на те, що історичні зміни політичних настроїв у США становлять приблизно три градуси за три роки.

У той же час, учасники, що бачили посилений поляризуючий контент, повідомляли про холодніші почуття по відношенню до протилежних груп, що ще раз демонструє вплив алгоритму. Втручання також вплинуло на емоційні реакції: ті, хто зазнавав впливу приглушеного контенту, повідомляли про меншу кількість смутку та гніву.

Обхід контролю платформи

Це дослідження є новаторським, оскільки обходить традиційний бар’єр вивчення впливу алгоритмів: доступом до платформ. Замість покладатися на співпрацю з боку соціальних медіа-компаній (які рідко надають повну прозорість), дослідники створили інструмент, який працює незалежно всередині браузерів користувачів. Як пояснює Мартін Савески, один із авторів з Вашингтонського університету: “Тільки платформи мали владу формувати та розуміти ці алгоритми. Цей інструмент дає цю владу незалежним дослідникам.”

Цей метод обходить схвалення платформи, дозволяючи проводити реальні тести, не покладаючись готовність технологічних гігантів ділитися даними чи контролювати ситуацію.

Наслідки та подальші дослідження

Довгострокові наслідки таких втручань залишаються незрозумілими. Вікторія Олдембурго де Мелло, психолог з Університету Торонто, зазначає, що ефекти, що спостерігаються, можуть або згасати, або посилюватися з часом, що є важливою областю для майбутніх досліджень. Дослідники зробили свій код загальнодоступним, щоб стимулювати подальші дослідження та відтворення результатів.

Ця структура також має потенціал, що виходить за межі політичної поляризації. Команда планує вивчити втручання, пов’язані з благополуччям та психічним здоров’ям, використовуючи LLM для аналізу та модифікації стрічок соціальних мереж для досягнення ширших переваг. У той час як поточний інструмент працює в основному на платформах на основі браузера, дослідники вивчають способи адаптації його для використання з мобільними програмами, що представляє технічні проблеми, але залишається ключовою метою.

Успіх дослідження демонструє, що алгоритмічна маніпуляція стрічками соціальних мереж може впливати на відношення користувачів, навіть без співпраці платформ. Цей висновок ставить під сумнів твердження, що поляризація викликана виключно поведінкою користувачів, і підкреслює відповідальність за розробку алгоритмів у формуванні суспільного дискурсу.

Попередня статтяНесподівана Геологія Каміння для Керлінга
Наступна статтяCrew-12 вирушає на МКС на тлі незвичайної ротації екіпажу