Während generative KI die Aufmerksamkeit der Welt auf sich gezogen hat, steht sie vor einer anhaltenden und wachsenden Hürde: Genauigkeit. Trotz Bedenken hinsichtlich des Energieverbrauchs und der psychischen Gesundheit bleibt das unmittelbarste praktische Problem die Tendenz dieser Modelle, zu „halluzinieren“ oder falsche Informationen als Tatsachen darzustellen. Auch wenn Technologiegiganten wie Google KI-Zusammenfassungen direkt in Suchmaschinen integrieren, zeigt eine aktuelle Studie, dass das Ausmaß dieser Fehler viel größer ist, als es auf den ersten Blick erscheint.
Die Mathematik der Fehlinformationen
Eine von der New York Times berichtete Studie liefert eine ernüchternde Sicht auf Googles „AI Overview“-Funktion. Oberflächlich betrachtet sehen die Statistiken vielversprechend aus: Die KI liefert in 90 % der Fälle korrekte, fundierte Zusammenfassungen. In den meisten akademischen oder beruflichen Umgebungen würde eine Erfolgsquote von 90 % als bestanden gelten.
Wenn man sie jedoch auf das enorme Ausmaß des globalen Suchverkehrs anwendet, werden die restlichen 10 % zu einem mathematischen Albtraum.
- Das Volumenproblem: Google wird voraussichtlich im Jahr 2026 über fünf Billionen Suchanfragen verarbeiten.
- Die Fehlerquote: Bei einer Fehlerquote von 10 % bedeutet dies zig Millionen fragwürdiger Antworten pro Stunde.
- Die Häufigkeit: Dies entspricht Hunderttausenden von Fehlern, die jede einzelne Minute auftreten.
Dies unterstreicht einen entscheidenden Trend im KI-Zeitalter: Ein hoher Genauigkeitsprozentsatz bedeutet nicht gleichbedeutend mit einem sicheren Produkt, wenn die Stichprobengröße in Billionen liegt.
Unvorhersehbarkeit und Quellenzuverlässigkeit
Einer der schwierigsten Aspekte bei der Verwendung von KI-Übersichten ist ihre Inkonsistenz. Ein Benutzer könnte eine Suche durchführen und eine falsche Antwort erhalten, nur um dann eine vollkommen genaue Zusammenfassung zu erhalten, wenn er die exakt gleiche Abfrage wenige Augenblicke später wiederholt. Diese Volatilität macht es für Benutzer nahezu unmöglich vorherzusagen, wann sie in die Irre geführt werden.
Darüber hinaus sind die Quellen, denen die KI vertraut, oft problematisch. Untersuchungen des Open-Source-KI-Unternehmens Oumi ergaben ein beunruhigendes Muster bei Zitaten in sozialen Medien:
* Facebook wurde als Quelle sowohl für korrekte als auch für ungenaue Antworten genannt.
* Tatsächlich war die Wahrscheinlichkeit, dass bei ungenauen Antworten Facebook zitiert wurde, höher (7 %), als bei zutreffenden Antworten (5 %).
* Reddit zählt ebenfalls zu den am häufigsten zitierten Plattformen.
Durch die starke Abhängigkeit von Social-Media-Plattformen, auf denen sich Fehlinformationen schnell verbreiten können, besteht für die KI das Risiko, unbestätigte Behauptungen zu verstärken, anstatt sie zu filtern.
Die Anfälligkeit für „schlechte Schauspieler“
Die Architektur der KI-Suche schafft neue Grenzen für die digitale Manipulation. Es besteht ein wachsendes Risiko, dass „schlechte Akteure“ das System strategisch „manipulieren“, um Unwahrheiten zu verbreiten.
Der Prozess ist theoretisch einfach, aber äußerst effektiv:
1. Eine Person erstellt mehrere Blogbeiträge mit falschen Informationen (z. B. falschen historischen Fakten).
2. Sie verwenden künstliche Methoden, um den Verkehr auf diesen Websites zu steigern.
3. Die KI von Google durchsucht das Web nach Quellen und erkennt diesen „populären“, aber falschen Inhalt.
4. Die KI generiert eine Zusammenfassung, die die Unwahrheit als Faktenübersicht darstellt.
Google hat sein System verteidigt und erklärt, dass seine Such-KI dieselben Ranking- und Sicherheitsvorkehrungen verwendet, um Spam zu blockieren. Ein Sprecher wies darauf hin, dass es sich bei vielen der in Studien genannten Fehlerbeispiele um „unrealistische Suchanfragen“ handele, die nicht das typische Nutzerverhalten widerspiegelten.
Fazit
Da KI zum primären Zugang zu Informationen wird, verringert sich die Fehlerquote. Während Google einen Haftungsausschluss enthält, der besagt, dass „KI Fehler machen kann“*, legt die schiere Menge an Fehlern, die durch den weltweiten Suchverkehr verursacht werden, nahe, dass Nutzer ein hohes Maß an Skepsis bewahren müssen, um nicht Opfer automatisierter Fehlinformationen zu werden.




















