Nowe badania pokazują, że algorytmiczna manipulacja kanałami mediów społecznościowych może wymiernie zmniejszyć polaryzację polityczną, nawet bez współpracy platform. Naukowcy z Washington University i Northeastern University opracowali rozszerzenie przeglądarki, które wykorzystuje duże modele językowe (LLM) do subtelnej zmiany układu postów w kanałach użytkowników, odsuwając na bok skrajne treści, a w niektórych przypadkach nieznacznie je wzmacniając dla porównania. Wyniki opublikowane w Science pokazują wyraźny wpływ na postawy użytkowników wobec przeciwstawnych grup politycznych.
Eksperyment i jego wyniki
Badanie przeprowadzono na ponad 1200 osobach, które korzystały z X (dawniej Twittera) ze zmodyfikowanymi kanałami w okresie poprzedzającym wybory prezydenckie w USA w 2024 roku. Jedna grupa zauważyła, że polaryzujące treści zostały wyciszone, co zmniejszyło ich widoczność; drugim jest to, jak się nasila. Kluczowy wniosek: Osoby narażone na wyciszone, prowokacyjne posty zgłaszały cieplejsze podejście do przeciwstawnych grup politycznych. Tę zmianę mierzono za pomocą skali „temperatury odczuwania”, w której uczestnicy oceniali swoje emocje. Zmiana ta wynosiła średnio od dwóch do trzech stopni, co jest efektem znaczącym, biorąc pod uwagę, że historyczne zmiany nastrojów politycznych w Stanach Zjednoczonych wynosiły średnio około trzech stopni w ciągu trzech lat.
Jednocześnie uczestnicy, którzy zauważyli zwiększoną zawartość polaryzującą, zgłosili chłodniejsze uczucia wobec przeciwnych grup, co dodatkowo pokazuje wpływ algorytmu. Interwencja wpłynęła również na reakcje emocjonalne – osoby narażone na wyciszone treści zgłaszały mniej smutku i złości.
Obejście kontroli platformy
Badanie to jest przełomowe, ponieważ omija tradycyjną barierę w badaniu wpływu algorytmów: dostęp do platform. Zamiast polegać na współpracy firm zajmujących się mediami społecznościowymi (które rzadko zapewniają pełną przejrzystość), badacze stworzyli narzędzie, które działa niezależnie w przeglądarkach użytkowników. Jak wyjaśnia Martin Savesky, jeden z autorów z Uniwersytetu Waszyngtońskiego: * „Tylko platformy miały możliwość kształtowania i zrozumienia tych algorytmów. To narzędzie daje tę moc niezależnym badaczom”.*
Metoda ta omija zgodę platformy, umożliwiając przeprowadzanie testów w świecie rzeczywistym bez polegania na chęci gigantów technologicznych do udostępniania danych lub monitorowania sytuacji.
Implikacje i dalsze badania
Długoterminowe konsekwencje takich interwencji pozostają niejasne. Victoria Oldemburgo de Mello, psycholog z Uniwersytetu w Toronto, zauważa, że zaobserwowane efekty mogą z czasem zanikać lub nasilać się, co jest ważnym obszarem przyszłych badań. Naukowcy udostępnili swój kod publicznie, aby zachęcić do dalszych badań i replikacji wyników.
Ramy te mają także potencjał wykraczający poza polaryzację polityczną. Zespół planuje zbadać interwencje związane z dobrostanem i zdrowiem psychicznym, wykorzystując LLM do analizowania i modyfikowania kanałów mediów społecznościowych w celu osiągnięcia szerszych korzyści. Chociaż obecne narzędzie działa głównie na platformach opartych na przeglądarce, badacze badają sposoby dostosowania go do użytku z aplikacjami mobilnymi, co stwarza wyzwania techniczne, ale pozostaje kluczowym celem.
Sukces badania pokazuje, że algorytmiczna manipulacja kanałami mediów społecznościowych może mieć wymierny wpływ na postawy użytkowników, nawet bez współpracy platform. Odkrycie to podważa twierdzenie, że polaryzacja jest spowodowana wyłącznie zachowaniem użytkownika i podkreśla odpowiedzialność projektowania algorytmicznego za kształtowanie dyskursu publicznego.




















