[go: nahoru, domu]

Aller au contenu

« Coefficient de détermination » : différence entre les versions

Un article de Wikipédia, l'encyclopédie libre.
Contenu supprimé Contenu ajouté
Aleks Andre (discuter | contributions)
→‎Introduction : nom complet
Dianubv (discuter | contributions)
Fonctionnalité de suggestion d’images : 1 image ajoutée.
 
(11 versions intermédiaires par 7 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
{{ébauche|statistiques}}
{{ébauche|statistiques}}
{{À vérifier|thème=mathématiques|date=décembre 2016}}
{{À vérifier|thème=mathématiques|date=décembre 2016}}
{{À recycler|thème=mathématiques|date=aout 2022}}

[[Fichier:Coefficient of Determination.svg|vignette|Illustration du coefficient de détermination pour une régression linéaire. Le coefficient de détermination est égal à 1 moins le rapport entre la surface des carrés bleus et la surface des carrés rouges.]]
En [[statistique]], le '''coefficient de détermination linéaire de [[Karl Pearson|Pearson]]''', noté '''{{math|''R''{{2}}}}''' ou '''{{math|''r''{{2}}}}''', est une mesure de la [[Régression linéaire#Qualité de la prédiction|qualité de la prédiction d'une régression linéaire]].
En [[statistique]], le '''coefficient de détermination linéaire de [[Karl Pearson|Pearson]]''', noté '''{{math|''R''{{2}}}}''' ou '''{{math|''r''{{2}}}}''', est une mesure de la [[Régression linéaire#Qualité de la prédiction|qualité de la prédiction d'une régression linéaire]].


Il est défini par :
{{refnec|Il est défini par}} :
:<math> R^2 = 1-\dfrac{\sum_{i=1}^n\left(y_i-\hat{y_i}\right)^2}{\sum_{i=1}^n\left(y_i-\bar y\right)^2}

</math>
:<math> R^2 = 1-\frac{\sum_{i=1}^n(y_i-\hat{y_i})^2}{\sum_{i=1}^n(y_i-\bar y)^2} </math>
où {{math|''n''}} est le nombre de mesures, <math>y_i</math> la valeur de la mesure {{n°|{{math|''i''}}}}, <math>\hat{y_i}</math> la valeur prédite correspondante et <math>\bar y</math> la moyenne des mesures.
où {{math|''n''}} est le nombre de mesures, <math>y_i</math> la valeur de la mesure {{n°|{{math|''i''}}}}, <math>\hat{y_i}</math> la valeur prédite correspondante et <math>\bar y</math> la moyenne des mesures.


Dans le cas d'une régression linéaire univariée (une seule variable prédictive), [[:en:Explained sum of squares#Partitioning in simple linear regression|on montre]] que la variance (totale) SST est la somme de la variance expliquée par la régression SSE et de la moyenne des carrés des résidus SSR, de sorte que :
== Cas de la régression linéaire univariée par la méthode des moindres carrés ==
Dans le cas d'une régression linéaire univariée (une seule variable prédictive) par la [[Ajustement affine#Ajustement affine|méthode des moindres carrés]], [[:en:Explained sum of squares#Partitioning in simple linear regression|on montre]] que la variance (totale) SST est la somme de la variance expliquée par la régression SSE et de la moyenne des carrés des résidus SSR, de sorte que :
:<math> \dfrac{\mathrm{SSE}}{\mathrm{SST}}= \dfrac{\mathrm{SST}-\mathrm{SSR}}{\mathrm{SST}}=\dfrac{\sum_{i=1}^{n} (\hat{y_i} - \bar{y})^2}{\sum_{i=1}^{n} (y_i - \bar{y})^2} = 1- \dfrac{\sum_{i=1}^{n} (y_i - \hat{y_i})^2}{\sum_{i=1}^{n} (y_i - \bar{y})^2} = R^{2} </math>

:<math> \frac{\mathrm{SSE}}{\mathrm{SST}}= \frac{\mathrm{SST}-\mathrm{SSR}}{\mathrm{SST}}=\frac{\sum_{i=1}^{n} (\hat{y_i} - \bar{y})^2}{\sum_{i=1}^{n} (y_i - \bar{y})^2} = 1- \frac{\sum_{i=1}^{n} (y_i - \hat{y_i})^2}{\sum_{i=1}^{n} (y_i - \bar{y})^2} = R^{2} </math>
c'est-à-dire que le coefficient de détermination est alors le [[Rapport (mathématiques)|rapport]] de la variance expliquée par la régression SSE sur la variance totale SST.
c'est-à-dire que le coefficient de détermination est alors le [[Rapport (mathématiques)|rapport]] de la variance expliquée par la régression SSE sur la variance totale SST<ref>Université Paris Ouest Nanterre La Défense, ''PMP STA 21 Méthodes statistiques pour l'analyse des données en psychologie'', «[https://fermin.perso.math.cnrs.fr/Files/Chap3.pdf Chapitre 4 : Régression linéaire] p. 7</ref>.

Le coefficient de détermination est le carré du [[Corrélation (statistiques)#Coefficient de corrélation linéaire de Bravais-Pearson|coefficient de corrélation linéaire]] {{math|''R''}} entre les valeurs prédites <math>\hat{y_i}</math> et les mesures <math>y_i</math> :


Le coefficient de détermination est le carré du [[Corrélation (statistiques)#Coefficient de corrélation linéaire de Bravais-Pearson|coefficient de corrélation linéaire]] {{math|''R''}} entre les valeurs prédites <math>\hat{y_i}</math> et les mesures <math>y_i</math> :
:<math> R^2 = corr(\hat{y},y)^2 </math>
:<math> R^2 = corr(\hat{y},y)^2 </math>


Ligne 22 : Ligne 22 :


La propriété précédente permet de voir le coefficient de détermination comme une généralisation du coefficient de corrélation au cas d'une régression linéaire multivariée.
La propriété précédente permet de voir le coefficient de détermination comme une généralisation du coefficient de corrélation au cas d'une régression linéaire multivariée.

== Notes et références ==
{{références}}


== Voir aussi ==
== Voir aussi ==
=== Bibliographie ===
=== Bibliographie ===
* {{Ouvrage|auteur=Pierre Bailly|auteur2=Christine Carrère|titre=Statistiques descriptives|sous-titre=Théorie et applications|collection=Libres cours économie|éditeur=[[Presses universitaires de Grenoble|PUG]]|year=2015|url={{Google Livres|KgwNCgAAQBAJ|page=165}}|page=165-167}}.
* {{Ouvrage|auteur=Pierre Bailly|auteur2=Christine Carrère|titre=Statistiques descriptives|sous-titre=Théorie et applications|collection=Libres cours économie|éditeur=[[Presses universitaires de Grenoble|PUG]]|année=2015|url={{Google Livres|KgwNCgAAQBAJ|page=165}}|page=165-167}}.


=== Article connexe ===
=== Articles connexes ===
* {{Lien|trad=Nash–Sutcliffe model efficiency coefficient|Coefficient d'efficacité du modèle de Nash-Sutcliffe}}
* {{Lien|trad=Nash–Sutcliffe model efficiency coefficient|Coefficient d'efficacité du modèle de Nash-Sutcliffe}}


=== Liens externes ===
=== Liens externes ===
* {{fr}} [http://statistiques.forumpro.fr/t8565-coefficient-de-determination-et-regression-non-lineaire/ Un débat sur le thème "Coefficient de détermination et régression non linéaire"]
* [http://statistiques.forumpro.fr/t8565-coefficient-de-determination-et-regression-non-lineaire/ Un débat sur le thème "Coefficient de détermination et régression non linéaire"]


{{Portail|Probabilités et statistiques}}
{{Portail|Probabilités et statistiques}}

Dernière version du 28 avril 2023 à 15:57

Illustration du coefficient de détermination pour une régression linéaire. Le coefficient de détermination est égal à 1 moins le rapport entre la surface des carrés bleus et la surface des carrés rouges.

En statistique, le coefficient de détermination linéaire de Pearson, noté R2 ou r2, est une mesure de la qualité de la prédiction d'une régression linéaire.

Il est défini par[réf. nécessaire] :

n est le nombre de mesures, la valeur de la mesure no i, la valeur prédite correspondante et la moyenne des mesures.

Cas de la régression linéaire univariée par la méthode des moindres carrés[modifier | modifier le code]

Dans le cas d'une régression linéaire univariée (une seule variable prédictive) par la méthode des moindres carrés, on montre que la variance (totale) SST est la somme de la variance expliquée par la régression SSE et de la moyenne des carrés des résidus SSR, de sorte que :

c'est-à-dire que le coefficient de détermination est alors le rapport de la variance expliquée par la régression SSE sur la variance totale SST[1].

Le coefficient de détermination est le carré du coefficient de corrélation linéaire R entre les valeurs prédites et les mesures  :

Dans le cas univarié, on montre que c'est aussi le carré du coefficient de corrélation entre les valeurs de la variable prédictive et les mesures . C'est une conséquence immédiate de la relation : démontrée ici et ici.

La propriété précédente permet de voir le coefficient de détermination comme une généralisation du coefficient de corrélation au cas d'une régression linéaire multivariée.

Notes et références[modifier | modifier le code]

  1. Université Paris Ouest Nanterre La Défense, PMP STA 21 Méthodes statistiques pour l'analyse des données en psychologie, «Chapitre 4 : Régression linéaire p. 7

Voir aussi[modifier | modifier le code]

Bibliographie[modifier | modifier le code]

  • Pierre Bailly et Christine Carrère, Statistiques descriptives : Théorie et applications, PUG, coll. « Libres cours économie », (lire en ligne), p. 165-167.

Articles connexes[modifier | modifier le code]

Liens externes[modifier | modifier le code]