[go: nahoru, domu]

Aller au contenu

« Coefficient de détermination » : différence entre les versions

Un article de Wikipédia, l'encyclopédie libre.
Contenu supprimé Contenu ajouté
Heribor (discuter | contributions)
bandeau ébauche
La première formule, que j'ai supprimée était le coefficient d'efficacité de Nash-Sutcliffe qui varie entre -infini et 1, et n'est pas le R^2 qui doit toujours être > 0
Ligne 6 : Ligne 6 :


<math>
<math>
R^{2} = 1 - \frac{\sum_{i=1}^{n} (y_i - \hat{y_i})^2}{\sum_{i=1}^{n} (y_i - \bar{y})^2} = \frac{\sum_{i=1}^{n} (\hat{y_i} - \bar{y})^2}{\sum_{i=1}^{n} (y_i - \bar{y})^2}
R^{2} = \frac{\sum_{i=1}^{n} (\hat{y_i} - \bar{y})^2}{\sum_{i=1}^{n} (y_i - \bar{y})^2}
</math>
</math>



Version du 24 juin 2016 à 16:16

En statistique, le coefficient de détermination () est une mesure de la qualité de la prédiction d'une régression linéaire.

Il est défini comme 1 moins le ratio entre l'erreur avec les valeurs prédites et la variance des données :

Avec les valeurs des mesures, les valeurs prédites et la moyenne des mesures.

Le coefficient de détermination varie entre 0 et 1. Lorsqu'il est proche de 0, le pouvoir prédictif du modèle est faible et lorsqu'il est proche de 1, le pouvoir prédictif du modèle est fort.