Додому Різне Umělá inteligence snižuje politickou polarizaci na sociálních sítích

Umělá inteligence snižuje politickou polarizaci na sociálních sítích

Umělá inteligence snižuje politickou polarizaci na sociálních sítích

Nový výzkum ukazuje, že algoritmická manipulace se zdroji sociálních médií může měřitelně snížit politickou polarizaci, a to i bez spolupráce s platformou. Výzkumníci z Washington University a Northeastern University vyvinuli rozšíření prohlížeče, které využívá Large Language Models (LLM) k jemnému přeuspořádání příspěvků ve zdrojích uživatelů, odsouvá extrémní obsah a v některých případech jej mírně zesiluje pro srovnání. Výsledky publikované v Science ukazují jasný dopad na postoje uživatelů k opozičním politickým skupinám.

Experiment a jeho výsledky

Studie byla založena na více než 1200 lidech, kteří používali X (dříve Twitter) s upravenými zdroji před prezidentskými volbami v USA v roce 2024. Jedna skupina viděla polarizační obsah ztlumený, čímž se snížila jeho viditelnost; druhá je, jak se zesiluje. Klíčové zjištění: Ti, kdo byli vystaveni tlumeným, provokativním příspěvkům, hlásili vřelejší postoj k protichůdným politickým skupinám. Tento posun byl měřen pomocí stupnice „teploty pocitů“, kde účastníci hodnotili své emoce. Změna činila v průměru dva až tři stupně, což je významný efekt vzhledem k tomu, že historické změny politického cítění ve Spojených státech v průměru za tři roky dosáhly asi tří stupňů.

Ve stejnou dobu účastníci, kteří viděli zvýšený polarizující obsah, hlásili chladnější pocity vůči protichůdným skupinám, což dále prokázalo vliv algoritmu. Intervence také ovlivnila emocionální reakce, přičemž ti, kteří byli vystaveni tlumenému obsahu, hlásili méně smutku a hněvu.

Přemostění ovládání platformy

Tento výzkum je průlomový, protože obchází tradiční překážku pro studium dopadu algoritmů: přístup k platformám. Místo toho, aby se spoléhali na spolupráci se společnostmi sociálních médií (které jen zřídka poskytují úplnou transparentnost), vytvořili výzkumníci nástroj, který běží nezávisle v prohlížečích uživatelů. Jak vysvětluje Martin Savesky, jeden z autorů z University of Washington: „Pouze platformy měly sílu utvářet a porozumět těmto algoritmům. Tento nástroj dává tuto moc nezávislým výzkumníkům.“

Tato metoda obchází schválení platformy a umožňuje provádět testování v reálném světě, aniž by se spoléhalo na ochotu technologických gigantů sdílet data nebo monitorovat situaci.

Důsledky a další výzkum

Dlouhodobé důsledky takových zásahů zůstávají nejasné. Victoria Oldemburgo de Mello, psycholožka z University of Toronto, poznamenává, že pozorované účinky mohou časem buď odeznít, nebo se zvýšit, což je důležitá oblast pro budoucí výzkum. Vědci zveřejnili svůj kód, aby podpořili další výzkum a replikaci výsledků.

Tento rámec má také potenciál přesahující politickou polarizaci. Tým plánuje studovat intervence týkající se pohody a duševního zdraví pomocí LLM k analýze a úpravě zdrojů sociálních médií, aby bylo možné dosáhnout širších výhod. Zatímco současný nástroj funguje především na platformách založených na prohlížeči, výzkumníci zkoumají způsoby, jak jej přizpůsobit pro použití s ​​mobilními aplikacemi, což představuje technické problémy, ale zůstává klíčovým cílem.

Úspěch studie ukazuje, že algoritmická manipulace s kanály sociálních médií může mít měřitelný dopad na postoje uživatelů, a to i bez spolupráce s platformou. Toto zjištění zpochybňuje tvrzení, že polarizace je způsobena výhradně chováním uživatelů, a zdůrazňuje odpovědnost algoritmického návrhu při utváření veřejného diskurzu.

Exit mobile version