Le défaut caché de l’évaluation des risques : pourquoi les faux positifs sont plus importants que vous ne le pensez

8

Le jugement humain est notoirement mauvais pour évaluer les risques, en particulier lorsqu’il s’agit d’événements rares. Ce n’est pas seulement une bizarrerie de la psychologie ; Il s’agit d’une réalité mathématique connue sous le nom de paradoxe des faux positifs, dans laquelle notre cerveau surestime systématiquement la probabilité que quelque chose se produise simplement parce que nous nous concentrons sur les mauvais chiffres. Des tests médicaux à la surveillance de sécurité, ces préjugés conduisent à des décisions erronées ayant des conséquences concrètes.

Le problème avec les pourcentages

Le problème central réside dans la manière dont nous interprétons l’exactitude par rapport à la prévalence. Un test peut être précis à 99 %, mais si la condition pour laquelle il est testé est extrêmement rare, la plupart des résultats positifs seront faux. Prenons l’exemple d’une maladie qui touche une personne sur 1 000. Même avec un test presque parfait, pour chaque vrai positif, il y aura environ dix faux positifs. Il ne s’agit pas d’un échec du test ; c’est une fatalité statistique.

Le paradoxe survient parce que nos esprits s’accrochent au taux de précision élevé (99 %) et ignorent le faible taux de base (1/1 000). Nous nous concentrons sur le résultat du test – un résultat positif – plutôt que sur le contexte plus large. C’est pourquoi un résultat positif à un test médical, malgré sa fiabilité, n’a que 9 % de chances d’indiquer réellement une maladie dans ce scénario.

Implications dans le monde réel

Le paradoxe des faux positifs n’est pas seulement théorique. Cela explique pourquoi les dépistages massifs des maladies rares sont souvent inefficaces. Le nombre de fausses alarmes dépasse les cas réels, entraînant une anxiété inutile, des procédures de suivi coûteuses et des dommages potentiels dus à un diagnostic erroné.

Les forces de l’ordre sont confrontées au même problème. Les logiciels de reconnaissance faciale, même s’ils sont très précis, génèrent un flot de faux positifs lorsqu’ils sont appliqués sans discernement. À Cardiff, lors de la finale de la Ligue des champions 2017, un système analysant 170 000 supporters a identifié 2 470 criminels potentiels, dont seulement 3 % étaient réellement recherchés. Le système a fonctionné comme prévu : il reflétait simplement le faible taux de base de criminels dans la foule.

Le danger de l’exploration de données

Le même principe s’applique aux efforts de lutte contre le terrorisme. L’examen des enregistrements téléphoniques et des réseaux sociaux à la recherche de modèles indiquant une activité terroriste donne un résultat similaire. Les complots terroristes sont rares, ce qui rend les faux positifs bien plus fréquents que les menaces réelles. L’expert en sécurité Bruce Schneier estime que pour chaque véritable terroriste découvert par de tels programmes, des dizaines de millions de personnes innocentes sont signalées comme suspectes, gaspillant des ressources et violant la vie privée.

Le contexte est primordial

L’essentiel à retenir n’est pas d’abandonner complètement les tests ou la surveillance. Il s’agit plutôt de comprendre les compromis. Des tests précis sont utiles, mais uniquement lorsqu’ils sont appliqués à des populations où la maladie est raisonnablement répandue. Les médecins donnent correctement la priorité aux tests des personnes présentant des symptômes, car cela déplace les chances statistiques en faveur d’un vrai positif.

Le paradoxe des faux positifs nous apprend à contextualiser les résultats. La précision seule n’a pas d’importance ; la probabilité de l’événement lui-même est cruciale. Lorsque l’on parcourt des questions probabilistes, les détails les plus saillants ne sont pas toujours les plus pertinents statistiquement.

En fin de compte, une évaluation rationnelle des risques nécessite de reconnaître que même des systèmes hautement fiables produiront plus de bruit que de signal lorsqu’ils sont appliqués à des événements extrêmement rares. Ignorer cette réalité conduit à un gaspillage de ressources, à de fausses alarmes et à des prises de décision erronées.

Попередня статтяLes écoles créent des carrières concrètes : au-delà de l’éducation traditionnelle
Наступна статтяLa science de la gueule de bois : quels aliments en fait aident