Масштаб помилки: чому AI Overviews від Google зіткнулися із серйозною кризою точності

20

У той час як генеративний ІІ прикував до себе увагу всього світу, він стикається з постійною і зростаючою перешкодою: “точністю”. Незважаючи на побоювання щодо енергоспоживання та впливу на психічне здоров’я, найгострішою практичною проблемою залишається схильність цих моделей до «галюцинацій» — подання невірної інформації як факту. Навіть коли технологічні гіганти на кшталт Google впроваджують ІІ-зведення безпосередньо в пошукові системи, недавнє дослідження показує, що справжній масштаб цих помилок набагато серйозніший, ніж здається на перший погляд.

Математика дезінформації

Дослідження, опубліковане New York Times, дає протверезну оцінку функції Google AI Overview. На перший погляд, статистика виглядає багатообіцяюче: ІІ видає вірні, засновані на джерелах зведення в 90% випадків. У більшості академічних чи професійних кіл 90-відсотковий показник успіху вважався б задовільним.

Однак, коли це застосовується до колосальних масштабів глобального пошукового трафіку, 10%, що залишилися, перетворюються на математичний кошмар.

  • Проблема обсягу: Згідно з прогнозами, у 2026 році Google опрацює більше п’яти трильйонів пошукових запитів.
  • Рівень помилок: При 10-відсотковому рівні помилок це означає десятки мільйонів сумнівних відповідей щогодини.
  • Частота: Це еквівалентно сотням тисяч помилок, що відбуваються щохвилини.

Це підкреслює критичну тенденцію епохи ІІ: високий відсоток точності не робить продукт безпечним, якщо обсяг вибірки обчислюється трильйонами.

Непередбачуваність та надійність джерел

Одним із найскладніших аспектів використання AI Overviews є їхня непослідовність. Користувач може виконати пошук і отримати неправильну відповідь, але через мить, повторивши той же запит, отримати ідеально точне зведення. Така нестабільність робить практично неможливим для користувачів прогнозування того, коли саме їх вводять в оману.

Більше того, джерела, яким ІІ довіряє, часто проблематичні. Дослідження компанії Oumi, що займається розробкою ІІ з відкритим вихідним кодом, виявило тривожну закономірність у цитуванні соціальних мереж:
* Facebook використовувався як джерело як для вірних, так і для невірних відповідей.
* Більше того, невірні відповіді * частіше * посилалися на Facebook (7%), ніж вірні (5%).
* Reddit також опинився серед найбільш часто цитованих платформ.

Сильно покладаючись на соціальні мережі, де дезінформація поширюється миттєво, ІІ ризикує не фільтрувати, лише посилювати неперевірені твердження.

Вразливість перед «зловмисниками»

Архітектура ІІ-пошуку створює нові можливості для цифрових маніпуляцій. Існує ризик того, що «зловмисники» зможуть стратегічно маніпулювати системою для поширення брехні.

Теоретично цей процес простий, але дуже ефективний:
1. Особа створює безліч постів у блогах, що містять неправдиву інформацію (наприклад, невірні історичні факти).
2. За допомогою штучних методів воно наганяє трафік на ці сайти.
3. ІІ Google, скануючи мережу пошуку джерел, підхоплює цей «популярний», але помилковий контент.
4. ІІ генерує зведення, яке подає брехню як фактичний огляд.

Google захищає свою систему, заявляючи, що пошуковий ІІ використовує ті ж механізми ранжування та захисту, що й для блокування спаму. Представник компанії зазначив, що багато прикладів помилок, наведених у дослідженнях, стосуються «нереалістичних запитів», які не відображають типової поведінки користувачів.

Висновок

Оскільки ІІ стає основним шлюзом до інформації, право на помилку скорочується. Хоча Google і додає дисклеймер про те, що «ІІ може робити помилки», величезний обсяг помилок, що породжується глобальним пошуковим трафіком, говорить про те, що користувачі повинні зберігати високий рівень скептицизму, щоб не стати жертвами автоматизованої дезінформації.

У міру того як ІІ перебирає роль головного джерела знань, межа між фактом і галюцинацією стає дедалі розмитішою.