[go: nahoru, domu]

Aller au contenu

« Coefficient de détermination » : différence entre les versions

Un article de Wikipédia, l'encyclopédie libre.
Contenu supprimé Contenu ajouté
Aucun résumé des modifications
Balises : Modification par mobile Modification par le web mobile
m Révocation des modifications de 2607:fb90:2e69:639c:1899:e66b:e30:d8d9 (retour à la précédente version de Kiwipidae)
Ligne 6 : Ligne 6 :
Il est défini par :
Il est défini par :


:<math> R^2 u= 1-\frac{\sum_{i=1}^n(y_i-\hat{y_i})^2}{\sum_{i=1}^n(y_i-\bar y)^2}\in[0,1] </math>
:<math> R^2 = 1-\frac{\sum_{i=1}^n(y_i-\hat{y_i})^2}{\sum_{i=1}^n(y_i-\bar y)^2}\in[0,1] </math>
où {{math|''n''}} est le nombre de mesures, <math>y_i</math> la valeur de la mesure {{n°|{{math|''i''}}}}, <math>\hat{y_i}</math> la valeur prédite correspondante et <math>\bar y</math> la moyenne des mesures.
où {{math|''n''}} est le nombre de mesures, <math>y_i</math> la valeur de la mesure {{n°|{{math|''i''}}}}, <math>\hat{y_i}</math> la valeur prédite correspondante et <math>\bar y</math> la moyenne des mesures.


Ligne 19 : Ligne 19 :
'''Dans le cas univarié''', on montre que c'est aussi le carré du '''coefficient de corrélation entre les valeurs <math>x_i</math> de la variable prédictive et les mesures <math>y_i</math>'''. C'est une conséquence immédiate de la relation : <math> \sum_{i=1}^n(\hat{y_i}-y_i)^2 = (1 - R^2) \sum_{i=1}^n(\hat{y_i}-\bar y)^2 </math> démontrée [[Régression linéaire#Coefficient de corrélation linéaire de Bravais-Pearson|ici]] et [[:en:Residual sum of squares#Relation with Pearson's product-moment correlation|ici]].
'''Dans le cas univarié''', on montre que c'est aussi le carré du '''coefficient de corrélation entre les valeurs <math>x_i</math> de la variable prédictive et les mesures <math>y_i</math>'''. C'est une conséquence immédiate de la relation : <math> \sum_{i=1}^n(\hat{y_i}-y_i)^2 = (1 - R^2) \sum_{i=1}^n(\hat{y_i}-\bar y)^2 </math> démontrée [[Régression linéaire#Coefficient de corrélation linéaire de Bravais-Pearson|ici]] et [[:en:Residual sum of squares#Relation with Pearson's product-moment correlation|ici]].


La propriété précédente permet de voir le coefficient de détermination comme une ''généralisation du coefficient de corrélation'' au cas d'une régression linéaire ''multivariée''.
La propriété précédente permet de voir le coefficient de détermination comme une ''généralisation du coefficient de corrélation'' au cas d'une régression linéaire ''multivariée''.


== Voir aussi ==
== Voir aussi ==

Version du 2 juin 2018 à 06:54

En statistique, le coefficient de détermination, noté R2 ou r2, est une mesure de la qualité de la prédiction d'une régression linéaire.

Il est défini par :

n est le nombre de mesures, la valeur de la mesure no i, la valeur prédite correspondante et la moyenne des mesures.

Dans le cas d'une régression linéaire univariée (une seule variable prédictive), on montre que la variance (totale) est la somme de la variance expliquée et de la moyenne des carrés des résidus, de sorte que :

c'est-à-dire que le coefficient de détermination est alors le rapport entre la variance expliquée et la variance totale.

Le coefficient de détermination est le carré du coefficient de corrélation linéaire R entre les valeurs prédites et les mesures .

Dans le cas univarié, on montre que c'est aussi le carré du coefficient de corrélation entre les valeurs de la variable prédictive et les mesures . C'est une conséquence immédiate de la relation : démontrée ici et ici.

La propriété précédente permet de voir le coefficient de détermination comme une généralisation du coefficient de corrélation au cas d'une régression linéaire multivariée.

Voir aussi

Bibliographie

  • Pierre Bailly et Christine Carrère, Statistiques descriptives : Théorie et applications, PUG, coll. « Libres cours économie », (lire en ligne), p. 165-167.

Article connexe