Confusion Matrix Calculator


1.0.0 par MDApp+
Nov 29, 2021 Anciennes versions

À propos de Confusion Matrix Calculator

Détermine plusieurs mesures statistiques telles que la sensibilité, la spécificité et plus encore.

Ce calculateur de matrice de confusion détermine plusieurs mesures statistiques liées à la performance des modèles de classification telles que : sensibilité, spécificité, valeur prédictive positive (précision), valeur prédictive négative, taux de faux positifs, taux de fausses découvertes, taux de faux négatifs, précision et coefficient de corrélation Matthews .

Mesures statistiques basées sur la matrice de confusion

La matrice de confusion est la représentation populaire de la performance des modèles de classification et comprend les valeurs correctement et incorrectement classées par rapport aux résultats réels dans les données de test. Les quatre variables sont :

Vrai positif (TP) - qui est le résultat où le modèle prédit correctement la classe positive (la condition est correctement détectée lorsqu'elle est présente) ;

Vrai négatif (TN) - qui est le résultat où le modèle prédit correctement la classe négative (la condition n'est pas détectée lorsqu'elle est absente) ;

Faux positif (FP) - qui est le résultat où le modèle prédit de manière incorrecte la classe positive (la condition est détectée malgré son absence) ;

Faux négatif (FN) - qui est le résultat où le modèle prédit de manière incorrecte la classe négative (la condition n'est pas détectée bien qu'elle soit présente).

L'une des mesures statistiques les plus couramment déterminées est la sensibilité (également connue sous le nom de rappel, taux de réussite ou taux de vrais positifs TPR). La sensibilité mesure la proportion de positifs réels qui sont correctement identifiés comme positifs.

Sensibilité = TP / (TP + FN)

La spécificité, également connue sous le nom de sélectivité ou taux de vrais négatifs (TNR), mesure la proportion de négatifs réels qui sont correctement identifiés comme négatifs.

Spécificité = TN / (FP + TN)

La valeur prédictive positive (VPP), également connue sous le nom de précision et la valeur prédictive négative (VPN) sont la proportion de résultats positifs et négatifs qui sont respectivement vrais positifs et vrais négatifs. Ils sont également appelés accords prédictifs positifs respectivement négatifs et sont des mesures de la performance d'un test de diagnostic.

Valeur prédictive positive (Précision) = TP / (TP + FP)

Valeur prédictive négative = TN / (TN + FN)

Le taux de faux positifs (FPR) ou retombées est le rapport entre le nombre d'événements négatifs classés à tort comme positifs (faux positifs) et le nombre total d'événements négatifs réels (indépendamment de la classification).

Taux de faux positifs = FP / (FP + TN)

Le taux de fausses découvertes (FDR) est une approche statistique utilisée dans les tests d'hypothèses multiples pour corriger les comparaisons multiples.

Taux de fausses découvertes = FP / (FP + TP)

Le taux de faux négatifs (FNR) mesure la proportion d'individus où une condition est présente pour lesquels le résultat du test est négatif.

Taux de faux négatifs = FN / (FN + TP)

La précision (ACC) est une mesure du biais statistique

Précision = (TP + TN) / (TP + TN + FP + FN)

Le score F1 est une mesure de la précision d'un test, définie comme la moyenne harmonique de la précision et du rappel.

Score F1 = 2TP / (2TP + FP + FN)

Le coefficient de corrélation de Matthews (MCC) décrit comment la modification de la valeur d'une variable affectera la valeur d'une autre et renvoie une valeur comprise entre -1 et 1 :

+1 décrit une prédiction parfaite ;

0 incapable de renvoyer des informations valides (pas mieux qu'une prédiction aléatoire) ;

-1 décrit une incohérence totale entre la prédiction et l'observation.

Coefficient de corrélation de Matthews = (TP x TN – FP x FN) / (sqrt((TP+FP) x (TP+FN) x (TN+FP) x (TN+FN)))

Quoi de neuf dans la dernière version 1.0.0

Last updated on Mar 20, 2022
This Confusion Matrix Calculator determines several statistical measures linked to the performance of classification models, such as: Sensitivity, Specificity, Positive Predictive Value (Precision), Negative Predictive Value, False Positive Rate, False Discovery Rate, False Negative Rate, Accuracy & Matthews Correlation Coefficient.

Informations Application supplémentaires

Dernière version

1.0.0

Telechargé par

Alyson Magalhães

Nécessite Android

Android 4.1+

Available on

Voir plus

Use APKPure App

Get Confusion Matrix Calculator old version APK for Android

Téléchargement

Use APKPure App

Get Confusion Matrix Calculator old version APK for Android

Téléchargement

Alternative à Confusion Matrix Calculator

Obtenir plus de MDApp+

Découvrir