Ludzka percepcja słynie z niezdolności do prawidłowej oceny ryzyka, szczególnie jeśli chodzi o rzadkie zdarzenia. Nie jest to tylko dziwactwo psychologii, ale matematyczna rzeczywistość znana jako fałszywie pozytywny paradoks, w której nasze mózgi konsekwentnie przeceniają prawdopodobieństwo wystąpienia czegoś po prostu dlatego, że skupiamy się na niewłaściwych liczbach. Od testów medycznych po systemy bezpieczeństwa – to nastawienie prowadzi do złych decyzji, które mają konsekwencje w życiu codziennym.
Problem z odsetkami
Sedno problemu polega na tym, jak interpretujemy precyzję w porównaniu z częstością występowania. Test może być dokładny w 99%, ale jeśli choroba, na którą jest testowany, jest niezwykle rzadka, większość pozytywnych wyników będzie fałszywa. Wyobraźmy sobie chorobę, która dotyka jedną osobę na tysiąc. Nawet przy niemal idealnym teście na każdy prawdziwie pozytywny wynik przypada około dziesięciu fałszywych. Nie jest to błąd testowy, ale statystyczna nieuniknienie.
Paradoks powstaje, ponieważ nasze umysły trzymają się wysokiego procentu dokładności (99%) i ignorują maleńkie podstawowe prawdopodobieństwo (1/1000). Koncentrujemy się na wyniku testu – pozytywnym wniosku – zamiast na szerszym kontekście. Dlatego pozytywny wynik testu lekarskiego, choć wiarygodny, w tym scenariuszu ma tylko 9% szans na faktyczne wskazanie choroby.
Prawdziwe konsekwencje
Paradoks fałszywie pozytywny nie jest tylko teorią. Wyjaśnia, dlaczego masowe badania w kierunku rzadkich chorób są często nieskuteczne. Liczba fałszywych alarmów przewyższa liczbę rzeczywistych przypadków, co skutkuje niepotrzebnymi alarmami, kosztownymi procedurami kontrolnymi i potencjalnymi szkodami wynikającymi z błędnej diagnozy.
Organy ścigania borykają się z tym samym problemem. Oprogramowanie do rozpoznawania twarzy, nawet przy dużej dokładności, generuje masę fałszywych alarmów, jeśli jest używane bezkrytycznie. W Cardiff podczas finału Ligi Mistrzów w 2017 r. system przeskanujący 170 000 kibiców zidentyfikował 2470 potencjalnych przestępców, z których tylko 3% było faktycznie poszukiwanych. System działał zgodnie z założeniami: po prostu odzwierciedlał niewielką liczbę przestępców w tłumie.
Niebezpieczeństwa związane z wyszukiwaniem danych
Tę samą zasadę stosuje się do walki z terroryzmem. Przeglądanie rozmów telefonicznych i mediów społecznościowych pod kątem wzorców wskazujących na działalność terrorystyczną daje podobny wynik. Spiski terrorystyczne są rzadkie, więc fałszywe alarmy są znacznie częstsze niż rzeczywiste zagrożenia. Ekspert ds. bezpieczeństwa Bruce Schneier szacuje, że na każdego faktycznego terrorystę zidentyfikowanego w ramach takich programów przypada dziesiątki milionów niewinnych ludzi oznaczanych jako podejrzani, co skutkuje marnowaniem zasobów i naruszeniem prywatności.
Kontekst jest wszystkim
Najważniejszym wnioskiem jest to, że nie należy całkowicie rezygnować z testów ani nadzoru. Zamiast tego ważne jest zrozumienie kompromisów. Dokładne testy są cenne, ale tylko wtedy, gdy są stosowane w populacjach, w których choroba jest dość powszechna. Lekarze słusznie ustalają priorytet testowania osób z objawami, ponieważ przechyla to statystyczne szanse na wynik rzeczywiście pozytywny.
Paradoks fałszywie pozytywny uczy nas kontekstualizowania wyników. Sama precyzja nie ma znaczenia; Liczy się prawdopodobieństwo samego zdarzenia. Rozważając pytania dotyczące prawdopodobieństwa, najważniejsze szczegóły nie zawsze są istotne statystycznie.
Ostatecznie racjonalna ocena ryzyka wymaga uznania, że nawet wysoce niezawodne systemy będą generować więcej szumu niż użytecznego sygnału, jeśli zostaną zastosowane do niezwykle rzadkich zdarzeń. Ignorowanie tej rzeczywistości skutkuje marnowaniem zasobów, fałszywymi alarmami i błędnym podejmowaniem decyzji.
