Das menschliche Urteilsvermögen ist bei der Risikoeinschätzung bekanntermaßen schlecht, insbesondere wenn es um seltene Ereignisse geht. Dies ist nicht nur eine Eigenart der Psychologie; Es handelt sich um eine mathematische Realität, die als Falsch-Positiv-Paradoxon bekannt ist und bei der unser Gehirn die Wahrscheinlichkeit, dass etwas passiert, ständig überschätzt, nur weil wir uns auf die falschen Zahlen konzentrieren. Von medizinischen Tests bis hin zur Sicherheitsüberwachung führt diese Voreingenommenheit zu fehlerhaften Entscheidungen mit Konsequenzen für die reale Welt.
Das Problem mit Prozentsätzen
Das Kernproblem liegt darin, wie wir Genauigkeit im Vergleich zur Prävalenz interpretieren. Ein Test kann zu 99 % genau sein, aber wenn die Erkrankung, auf die er testet, äußerst selten ist, sind die meisten positiven Ergebnisse falsch. Stellen Sie sich eine Krankheit vor, von der einer von 1.000 Menschen betroffen ist. Selbst bei einem nahezu perfekten Test kommen auf jedes echte positive Ergebnis ungefähr zehn falsche. Dies ist kein Fehlschlag des Tests; es ist eine statistische Unvermeidlichkeit.
Das Paradox entsteht, weil unser Verstand sich an die hohe Genauigkeitsrate (99 %) klammert und die winzige Basisrate (1/1.000) ignoriert. Wir konzentrieren uns auf das Testergebnis – ein positives Ergebnis – und nicht auf den größeren Kontext. Deshalb beträgt die Wahrscheinlichkeit, dass ein positives medizinisches Testergebnis trotz seiner Zuverlässigkeit tatsächlich auf eine Erkrankung hinweist, in diesem Szenario nur 9 %.
Auswirkungen auf die reale Welt
Das falsch-positive Paradoxon ist nicht nur theoretisch. Dies erklärt, warum Massenscreenings auf seltene Krankheiten oft wirkungslos sind. Die Zahl der Fehlalarme übersteigt die Zahl der echten Fälle, was zu unnötiger Angst, kostspieligen Folgemaßnahmen und potenziellem Schaden durch Fehldiagnosen führt.
Die Strafverfolgung steht vor dem gleichen Problem. Gesichtserkennungssoftware erzeugt, selbst wenn sie sehr genau ist, bei wahlloser Anwendung eine Flut falsch positiver Ergebnisse. Während des Champions-League-Finales 2017 in Cardiff identifizierte ein System, das 170.000 Fans scannte, 2.470 potenzielle Kriminelle, von denen nur 3 % tatsächlich gesucht wurden. Das System funktionierte wie vorgesehen: Es spiegelte lediglich die niedrige Grundquote der Kriminellen in der Menge wider.
Die Gefahr des Data Mining
Dasselbe Prinzip gilt für die Bemühungen zur Terrorismusbekämpfung. Die Durchsuchung von Telefonaufzeichnungen und sozialen Medien nach Mustern, die auf terroristische Aktivitäten hinweisen, führt zu einem ähnlichen Ergebnis. Terroranschläge sind selten, sodass Fehlalarme weitaus häufiger vorkommen als tatsächliche Bedrohungen. Der Sicherheitsexperte Bruce Schneier schätzt, dass auf jeden echten Terroristen, der durch solche Programme aufgedeckt wird, zig Millionen unschuldige Menschen als verdächtig eingestuft werden, was Ressourcen verschwendet und die Privatsphäre verletzt.
Kontext ist alles
Die wichtigste Erkenntnis besteht nicht darin, Tests oder Überwachung ganz aufzugeben. Stattdessen geht es darum, die Kompromisse zu verstehen. Genaue Tests sind wertvoll, aber nur, wenn sie auf Bevölkerungsgruppen angewendet werden, in denen die Erkrankung einigermaßen weit verbreitet ist. Ärzte räumen den Tests bei Patienten mit Symptomen richtigerweise Priorität ein, da sich dadurch die statistischen Chancen zugunsten eines wirklich positiven Ergebnisses verschieben.
Das falsch-positive Paradoxon lehrt uns, Ergebnisse zu kontextualisieren. Genauigkeit allein spielt keine Rolle; Die Wahrscheinlichkeit des Ereignisses selbst ist entscheidend. Beim Durchforsten probabilistischer Fragen sind die wichtigsten Details nicht immer die statistisch relevantesten.
Letztendlich erfordert eine rationale Risikobewertung die Anerkennung, dass selbst hochzuverlässige Systeme bei extrem seltenen Ereignissen mehr Rauschen als Signale erzeugen. Das Ignorieren dieser Realität führt zu Ressourcenverschwendung, Fehlalarmen und fehlerhaften Entscheidungen.
