Generativní umělá inteligence sice upoutala pozornost světa, ale čelí přetrvávající a rostoucí překážce: přesnosti. Navzdory obavám ze spotřeby energie a dopadu na duševní zdraví zůstává nejpalčivějším praktickým problémem tendence těchto modelů k „halucinacím“ – uvádění nesprávných informací jako faktu. I když techničtí giganti jako Google implementují souhrny AI přímo do vyhledávačů, nedávná studie ukazuje, že skutečný rozsah těchto chyb je mnohem závažnější, než se na první pohled zdá.
Matematika dezinformací
Studie zveřejněná New York Times poskytuje střízlivé hodnocení funkce „AI Overview“ společnosti Google. Na první pohled vypadají statistiky slibně: AI vytváří správné zprávy založené na zdroji 90 % času. Ve většině akademických nebo odborných kruhů by 90procentní úspěšnost byla považována za uspokojivou.
Když se to však aplikuje na kolosální rozsah celosvětového provozu z vyhledávání, zbývajících 10 % se stane matematickou noční můrou.
- Problém s objemem: Předpokládá se, že Google v roce 2026 zvládne více než pět bilionů vyhledávacích dotazů.
- Chybovost: S 10% chybovostí to znamená desítky milionů pochybných odpovědí každou hodinu.
- Frekvence: To odpovídá stovkám tisíc chyb, ke kterým dochází každou minutu.
To zdůrazňuje kritický trend v éře umělé inteligence: vysoké procento přesnosti nečiní produkt bezpečným, pokud je velikost vzorku v bilionech.
Nepředvídatelnost a spolehlivost zdrojů
Jedním z nejobtížnějších aspektů používání přehledů AI je jejich nekonzistence. Uživatel může hledat a dostat špatnou odpověď, ale poté zopakovat stejný dotaz o chvíli později a získat dokonale přesné shrnutí. Tato nestabilita uživatelům téměř znemožňuje předvídat přesně, kdy jsou uváděni v omyl.
Zdroje, kterým AI důvěřuje, jsou navíc často problematické. Studie společnosti open source AI Oumi objevila znepokojivý vzorec v citacích sociálních médií:
* Facebook byl použit jako zdroj pro správné i nesprávné odpovědi.
* Navíc nesprávné odpovědi byly větší pravděpodobnější, že odkazovaly na Facebook (7 %) než správné odpovědi (5 %).
* Reddit byl také mezi nejčastěji citovanými platformami.
Tím, že se AI silně spoléhá na sociální média, kde se dezinformace šíří okamžitě, riskuje, že neověřená tvrzení zesílí, místo aby je filtrovala.
Zranitelnost vůči „útočníkům“
Architektura vyhledávání AI vytváří nové příležitosti pro digitální manipulaci. Roste riziko, že „špatní aktéři“ budou schopni strategicky manipulovat systém k šíření lží.
Tento proces je teoreticky jednoduchý, ale extrémně účinný:
1. Jednotlivec vytváří četné blogové příspěvky obsahující nepravdivé informace (např. nesprávná historická fakta).
2. Pomocí umělých metod žene provoz na tyto stránky.
3. Umělá inteligence Google, která prohledává web a hledá zdroje, zachytí tento „populární“, ale falešný obsah.
4. Umělá inteligence vygeneruje shrnutí, které prezentuje lež jako věcnou recenzi.
Google obhajuje svůj systém tím, že jeho vyhledávací AI používá stejné mechanismy hodnocení a ochrany, jaké používá k blokování spamu. Mluvčí společnosti poznamenal, že mnoho příkladů chyb citovaných ve studiích zahrnovalo „nerealistické dotazy“, které neodrážejí typické chování uživatelů.
Závěr
Jak se AI stává primární bránou k informacím, snižuje se prostor pro chyby. Ačkoli Google přidává prohlášení, že „AI může dělat chyby“, naprostý objem chyb generovaných globálním provozem vyhledávání znamená, že by uživatelé měli zachovávat vysokou míru skepse, aby se nestali obětí automatických dezinformací.
Jak umělá inteligence přebírá roli hlavního zdroje znalostí, hranice mezi skutečností a halucinacemi se stále více stírá.




















