Faux positifs et faux négatifs

0

Un faux positif est une erreur de classification binaire dans laquelle un résultat de test indique de manière incorrecte la présence d’une condition (telle qu’une maladie lorsque la maladie n’est pas présente), tandis qu’un faux négatif est l’erreur inverse, où le résultat de test indique de manière incorrecte la l’absence d’une condition alors qu’elle est réellement présente. Ce sont les deux types d’erreurs dans un test binaire , par opposition aux deux types de résultat correct (unvrai positif et un vrai négatif ). Ils sont également connus en médecine comme undiagnosticfaux positif(oufaux négatif)et dansla classification statistiquecomme uneerreurfaux positif(oufaux négatif). [1]

Dans les tests d’hypothèses statistiques, les concepts analogues sont connus sous le nom d’ erreurs de type I et de type II , où un résultat positif correspond au rejet de l’ hypothèse nulle et un résultat négatif correspond au non-rejet de l’hypothèse nulle. Les termes sont souvent utilisés de manière interchangeable, mais il existe des différences de détail et d’interprétation en raison des différences entre les tests médicaux et les tests d’hypothèses statistiques.

Erreur de faux positif

Une erreur de faux positif , ou faux positif , est un résultat qui indique qu’une condition donnée existe alors qu’elle n’existe pas. Par exemple, un test de grossesse qui indique qu’une femme est enceinte alors qu’elle ne l’est pas, ou la condamnation d’une personne innocente.

Une erreur de faux positif est une Erreur de type I où le test vérifie une seule condition et donne à tort une décision affirmative (positive). Cependant, il est important de faire la distinction entre le taux d’erreur de type 1 et la probabilité qu’un résultat positif soit faux. Ce dernier est connu sous le nom de risque de faux positifs (voir Ambiguïté dans la définition du taux de faux positifs, ci-dessous ). [2]

Erreur de faux négatif

Une erreur de faux négatif , ou faux négatif , est un résultat de test qui indique à tort qu’une condition n’est pas vérifiée. Par exemple, lorsqu’un test de grossesse indique qu’une femme n’est pas enceinte, mais qu’elle l’est, ou lorsqu’une personne coupable d’un crime est acquittée, il s’agit de faux négatifs. La condition « la femme est enceinte » ou « la personne est coupable » tient, mais le test (le test de grossesse ou le procès devant un tribunal) ne réalise pas cette condition et décide à tort que la personne n’est pas enceinte ou non coupable.

Une erreur de faux négatif est une Erreur de type II se produisant dans un test où une seule condition est vérifiée et le résultat du test est erroné, que la condition est absente. [3]

Termes connexes

Taux de faux positifs et de faux négatifs

Le taux de faux positifs est la proportion de tous les résultats négatifs qui donnent toujours des résultats de test positifs, c’est-à-dire la probabilité conditionnelle d’un résultat de test positif compte tenu d’un événement qui n’était pas présent.

Le taux de faux positifs est égal au seuil de signification . La spécificité du test est égale à 1 moins le taux de faux positifs.

Dans les tests d’hypothèses statistiques , cette fraction reçoit la lettre grecque α et 1 − α est défini comme la spécificité du test. L’augmentation de la spécificité du test réduit la probabilité d’erreurs de type I, mais peut augmenter la probabilité d’erreurs de type II (faux négatifs qui rejettent l’hypothèse alternative lorsqu’elle est vraie). [un]

Learn more.

En complément, la le taux de faux négatifs est la proportion de résultats positifs qui donnent des résultats de test négatifs avec le test, c’est-à-dire la probabilité conditionnelle d’un résultat de test négatif étant donné que la condition recherchée est présente.

Dans les tests d’hypothèses statistiques , cette fraction reçoit la lettre β . La « puissance » (ou la « sensibilité ») du test est égale à 1 − β .

Ambiguïté dans la définition du taux de faux positifs

Le terme taux de fausses découvertes (FDR) a été utilisé par Colquhoun (2014) [4] pour désigner la probabilité qu’un résultat « significatif » soit un faux positif. Plus tard, Colquhoun (2017) [2] a utilisé le terme risque de faux positif (FPR) pour la même quantité, afin d’éviter toute confusion avec le terme FDR utilisé par les personnes qui travaillent sur des Comparaisons multiples . Les corrections pour les Comparaisons multiples visent uniquement à corriger le taux d’Erreur de type I, de sorte que le résultat est une valeur de p ( corrigée ) . Ainsi, ils sont susceptibles de la même interprétation erronée que toute autre valeur de p . Le risque de faux positif est toujours plus élevé, souvent beaucoup plus élevé, que la valeur p . [4] [2]

La confusion de ces deux idées, l’ erreur du conditionnel transposé , a causé beaucoup de mal. [5] En raison de l’ambiguïté de la notation dans ce domaine, il est essentiel de regarder la définition dans chaque article. Les risques de se fier aux valeurs de p ont été soulignés dans Colquhoun (2017) [2] en soulignant que même une observation de p = 0,001 n’était pas nécessairement une preuve solide contre l’hypothèse nulle. Malgré le fait que le rapport de vraisemblance en faveur de l’hypothèse alternative sur le nul est proche de 100, si l’hypothèse était invraisemblable, avec une probabilité a priori d’un effet réel de 0,1, même l’observation de p= 0,001 aurait un taux de faux positifs de 8 %. Il n’atteindrait même pas le niveau de 5 %. En conséquence, il a été recommandé [2] [6] que chaque valeur de p soit accompagnée de la probabilité a priori qu’il y ait un effet réel qu’il faudrait supposer pour obtenir un risque de faux positif de 5 %. . Par exemple, si nous observons p = 0,05 dans une seule expérience, nous devrions être certains à 87 % qu’il existe un effet réel avant que l’expérience ne soit réalisée pour obtenir un risque de faux positif de 5 %.

Caractéristique de fonctionnement du récepteur

L’article ” Caractéristique de fonctionnement du récepteur ” traite des paramètres du traitement statistique du signal en fonction des taux d’erreurs de différents types.

Voir également

  • Taux de faux positifs
  • Valeurs prédictives positives et négatives
  • Pourquoi la plupart des résultats de recherche publiés sont faux

Remarques

  1. ^ Lors du développement d’algorithmes ou de tests de détection, un équilibre doit être choisi entre les risques de faux négatifs et de faux positifs. Habituellement, il existe un seuil de proximité d’une correspondance avec un échantillon donné avant que l’algorithme ne signale une correspondance. Plus ce seuil est élevé, plus il y a de faux négatifs et moins il y a de faux positifs.

Références

  1. ^ Faux positifs et faux négatifs
  2. ^ un bcde Colquhoun , David (2017) . “La reproductibilité de la recherche et la mauvaise interprétation des p-values” . Société royale des sciences ouvertes . 4 (12) : 171085. doi : 10.1098/rsos.171085 . PMC 5750014 . PMID 29308247 .
  3. ^ Banerjee, A; Chitnis, UB ; Jadhav, SL ; Bhawalkar, JS; Chaudhury, S (2009). “Test d’hypothèse, erreurs de type I et de type II” . Ind Psychiatrie J . 18 (2) : 127–131. doi : 10.4103/0972-6748.62274 . PMC 2996198 . PMID 21180491 .
  4. ^ un b Colquhoun, David (2014). “Une enquête sur le taux de fausses découvertes et la mauvaise interprétation des valeurs p ” . Société royale des sciences ouvertes . 1 (3) : 140216. arXiv : 1407.5296 . Bibcode : 2014RSOS….140216C . doi : 10.1098/rsos.140216 . PMC 4448847 . PMID 26064558 .
  5. ^ Colquhoun, David. “Le problème avec les p-values” . Eon . Magazine Eon . Récupéré le 11 décembre 2016 .
  6. ^ Colquhoun, David (2018). “Le risque de faux positif: une proposition concernant ce qu’il faut faire des valeurs p”. Le statisticien américain . 73 : 192–201. arXiv : 1802.04888 . doi : 10.1080/00031305.2018.1529622 . S2CID 85530643 .
You might also like
Leave A Reply

Your email address will not be published.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More