Масштаб ошибки: почему AI Overviews от Google столкнулись с серьезным кризисом точности

16

В то время как генеративный ИИ приковал к себе внимание всего мира, он сталкивается с постоянным и растущим препятствием: точностью. Несмотря на опасения по поводу энергопотребления и влияния на психическое здоровье, самой острой практической проблемой остается склонность этих моделей к «галлюцинациям» — представлению неверной информации как факта. Даже когда технологические гиганты вроде Google внедряют ИИ-сводки напрямую в поисковые системы, недавнее исследование показывает, что истинный масштаб этих ошибок гораздо серьезнее, чем кажется на первый взгляд.

Математика дезинформации

Исследование, опубликованное New York Times, дает отрезвляющую оценку функции Google «AI Overview». На первый взгляд статистика выглядит многообещающе: ИИ выдает верные, основанные на источниках сводки в 90% случаев. В большинстве академических или профессиональных кругов 90-процентный показатель успеха считался бы удовлетворительным.

Однако, когда это применяется к колоссальным масштабам глобального поискового трафика, оставшиеся 10% превращаются в математический кошмар.

  • Проблема объема: Согласно прогнозам, в 2026 году Google обработает более пяти триллионов поисковых запросов.
  • Уровень ошибок: При 10-процентном уровне ошибок это означает десятки миллионов сомнительных ответов каждый час.
  • Частота: Это эквивалентно сотням тысяч ошибок, происходящих каждую минуту.

Это подчеркивает критическую тенденцию эпохи ИИ: высокий процент точности не делает продукт безопасным, если объем выборки исчисляется триллионами.

Непредсказуемость и надежность источников

Одним из самых сложных аспектов использования AI Overviews является их непоследовательность. Пользователь может выполнить поиск и получить неверный ответ, но спустя мгновение, повторив тот же самый запрос, получить идеально точную сводку. Такая нестабильность делает практически невозможным для пользователей прогнозирование того, когда именно их вводят в заблуждение.

Более того, источники, которым ИИ доверяет, зачастую проблематичны. Исследование компании Oumi, занимающейся разработкой ИИ с открытым исходным кодом, выявило тревожную закономерность в цитировании социальных сетей:
* Facebook использовался в качестве источника как для верных, так и для неверных ответов.
* Более того, неверные ответы чаще ссылались на Facebook (7%), чем верные (5%).
* Reddit также оказался в числе наиболее часто цитируемых платформ.

Сильно полагаясь на социальные сети, где дезинформация распространяется мгновенно, ИИ рискует не фильтровать, а лишь усиливать непроверенные утверждения.

Уязвимость перед «злоумышленниками»

Архитектура ИИ-поиска создает новые возможности для цифровых манипуляций. Существует растущий риск того, что «злоумышленники» смогут стратегически манипулировать системой для распространения лжи.

Теоретически этот процесс прост, но крайне эффективен:
1. Лицо создает множество постов в блогах, содержащих ложную информацию (например, неверные исторические факты).
2. С помощью искусственных методов оно нагоняет трафик на эти сайты.
3. ИИ Google, сканируя сеть в поиске источников, подхватывает этот «популярный», но ложный контент.
4. ИИ генерирует сводку, которая преподносит ложь как фактический обзор.

Google защищает свою систему, заявляя, что поисковый ИИ использует те же механизмы ранжирования и защиты, что и для блокировки спама. Представитель компании отметил, что многие примеры ошибок, приведенные в исследованиях, касаются «нереалистичных запросов», которые не отражают типичное поведение пользователей.

Заключение

Поскольку ИИ становится основным шлюзом к информации, право на ошибку сокращается. Хотя Google и добавляет дисклеймер о том, что «ИИ может совершать ошибки», огромный объем ошибок, порождаемый глобальным поисковым трафиком, говорит о том, что пользователи должны сохранять высокий уровень скептицизма, чтобы не стать жертвами автоматизированной дезинформации.

По мере того как ИИ берет на себя роль главного источника знаний, грань между фактом и галлюцинацией становится все более размытой.