Régression linéaire
En statistiques, étant donné un échantillon aléatoire un modèle de régression simple suppose la relation affine suivante entre Y i et X i ...
Page(s) en rapport avec ce sujet :
- L'hypothèse de la régression linéaire est que les µi sont alignés sur la vraie droite de régression qui est inconnue. Remarque : pour simplifier l'écriture... (source : www-rocq.inria)
- En effet, le modèle de régression linéaire est représenté graphiquement par la droite de régression qu'il est envisageable de tracer entre les points du ... (source : pages.usherbrooke)
- La régression linéaire multidimensionnelle est obtenue particulièrement simplement par la commande lm.... autrement dit ceux pour qui la régression linéaire est mal (ou pas) adaptée, ... Nous pouvons tracer désormais la droite de régression... (source : math.univ-montp2)


En statistiques, étant donné un échantillon aléatoire un modèle de régression simple suppose la relation affine suivante entre Yi et Xi :
La régression linéaire consiste à déterminer une estimation des valeurs a et b ainsi qu'à quantifier la validité de cette relation grâce au cœfficient de corrélation linéaire. La généralisation à p variables explicatives de ce modèle est donnée par
et se nomme la régression linéaire multiple.
Situation
Empiriquement, à partir d'observations , on a représenté dans un graphe la totalité de ces points représentant des mesures d'une grandeur yi en fonction d'une autre xi, par exemple la taille yi des enfants selon leur âge xi.
Les points paraissent alignés. On peut alors proposer un modèle linéaire, c'est-à-dire chercher la droite dont l'équation est yi = axi + b et qui passe au plus près des points du graphe.
Passer au plus près, selon la méthode des moindres carrés, c'est rendre minimale la somme des carrés des écarts des points à la droite
où (yi - axi - b) ² représente le carré de la distance verticale du point expérimental (yi, xi) à la droite reconnue comme la meilleure.
Cela revient par conséquent à déterminer les valeurs des paramètres a et b (respectivement le cœfficient directeur de la droite et son ordonnée à l'origine) qui minimisent la somme ci-dessus.
Définitions
|
|
La formule de la variance se retient par la mnémonique : La moyenne des carrés moins le carré de la moyenne
de même pour la covariance : La moyenne du produit moins le produit des moyennes.
Résultat de la régression
La droite rendant minimale la somme précédente passe par le point G et a pour cœfficient directeur . Son équation est donc :
soit
Erreur commise
Si on nomme εi l'écart vertical entre la droite et le point (xi , yi )
alors l'estimateur de la variance résiduelle σ²ε est :
la variance de a, σ²a , est estimée par
.
On est dans le cadre d'un test de Student sur l'espérance avec écart type inconnu. Pour un niveau de confiance α donné, on estime que l'erreur sur a est :
où tn-2 (1-α) /2 est le quantile d'ordre α/2 de la loi de Student à n-2 degrés de liberté.
L'erreur commise en remplaçant la valeur mesurée yi par le point de la droite axi + b est :
À titre d'illustration, voici quelques valeurs de quantiles.
n | niveau de confiance | |||
---|---|---|---|---|
90 % | 95 % | 99 % | 99, 9 % | |
5 | 2, 02 | 2, 57 | 4, 032 | 6, 869 |
10 | 1, 812 | 2, 228 | 3, 169 | 4, 587 |
100 | 1, 660 | 1, 984 | 2, 626 | 3, 390 |
Quand le nombre de points est important (plus de 100), on prend fréquemment une erreur à 3σ, qui correspond à un niveau de confiance de 99, 7 %.
Voir aussi : Erreur (métrologie) .
Cœfficient de corrélation linéaire
On peut aussi chercher la droite D' : x = a'y + b'qui rende minimale la somme :
On trouve alors une droite qui passe aussi par le point moyen G et telle que
.
On souhaite bien entendu tomber sur la même droite. Ce sera le cas si et uniquement si
- a'= 1/a,
c'est-à-dire si
- aa'= 1.
Les droites sont confondues si et uniquement si
c'est-à-dire si et uniquement si
On nomme cette quantité le cœfficient de corrélation linéaire entre x et y. On peut démontrer que ce nombre est toujours compris entre -1 et 1.
En pratique sa valeur absolue est rarement égale à 1, mais on estime le plus souvent que l'ajustement est valide dès que ce cœfficient a une valeur absolue supérieure à
Voir aussi : Corrélation (mathématiques) .
Démonstration des formules par étude d'un minimum
Pour tout réel a, on pose . Il suffit de développer et ordonner ce polynôme du second degré en b. On obtient :
Ce polynôme atteint son minimum en
Ce qui veut dire que la droite passe par le point moyen G
Il reste à remplacer dans la somme de départ, b par cette valeur.
Pour tout réel a, . Il suffit de développer et ordonner ce polynôme du second degré en a. On obtient
.
Ce polynôme atteint son minimum en
La droite de régression est bien la droite passant par G et de cœfficient directeur .
Démonstration des formules grâce aux espaces vectoriels de dimension n
Dans l'espace , pourvu du produit scalaire canonique, on considère le vecteur X de coordonnées (x1, x2, ..., xn) , le vecteur Y de coordonnées (y1, y2, ..., yn) , le vecteur U de coordonnées (1, 1, ..., 1).
On peut remarquer que :
On note alors le vecteur
et
le vecteur
Le vecteur Z de coordonnées (ax1 + b, ax2 + b, ..., axn + b) appartient à l'espace vectoriel génèré par X et U.
La somme représente le carré de la norme du vecteur Y − Z.
Cette norme est minimale si et uniquement si Z est le projeté orthogonal de Y dans l'espace vectoriel vect (X, U).
Z est le projeté de Y dans l'espace vectoriel vect (X, U) si et uniquement si (Z − Y). U = 0 et .
Or par conséquent (Z-Y). U=0 veut dire que
.
En remplaçant dans , on obtient
par conséquent
veut dire que
Enfin le cœfficient de corrélation linéaire s'écrit alors . Cette quantité représente le cosinus de l'angle constitué par les vecteurs
et
.
On retrouve alors les résultats suivants :
- si le cœfficient de corrélation linéaire est 1 ou -1, les vecteurs
et
sont colinéaires de cœfficient de colinéarité a et
. L'ajustement linéaire est parfait.
- si le cœfficient de corrélation linéaire est en valeur absolue supérieur à
alors l'angle constitué par les deux vecteurs est compris entre − π / 6 et π / 6 ou entre 5π / 6 et 7π / 6.
Généralisation : le cas matriciel
Quand on dispose de plusieurs variables explicatives dans une régression linéaire, il est souhaitable d'avoir recours aux notations matricielles. Si on dispose d'un jeu de n données (yi) i = 1.. n qu'on souhaite expliquer par k variables explicatives (y compris la constante) , on peut poser :
La régression linéaire s'exprime sous forme matricielle :
et il est question d'estimer le vecteur de cœfficients k × 1 .
Son estimateur par moindre carré est :
Il faut que la matrice X soit de plein rang () pour que
soit inversible.
L'estimation de la matrice (symétrique) de variance-covariance de cet estimateur est :
Le terme représente la somme des carrés des résidus
.
La qualité de l'ajustement linéaire se mesure toujours par un cœfficient de corrélation R2, défini ici par :
où SCE (respectivement SCT) représente la somme des carrés expliqués (respectivement la somme des carrés totaux). Ces sommes se donnent par et
.
Voir aussi
- Statistiques
- Statistique (mathématiques élémentaires)
- Régression mathématique
- Corrélation (mathématiques)
- Régression linéaire multiple, la généralisation à p variables explicatives de la régression linéaire
.
- Modèles de régression multiple postulés et non postulés
Liens externes
- http ://yves. demur. free. fr/guppy/file/reglin/reglin0108. pdf (utilisation pratique de la régression linéaire, + programmes test en C sur le site http ://yves. demur. free. fr/guppy/articles. php?lng=fr&pg=84)
- http ://www. unilim. fr/pages_perso/jean. debord/math/reglin/reglin. pdf La régression linéaire
Recherche sur Amazon (livres) : |
Voir la liste des contributeurs.
La version présentée ici à été extraite depuis cette source le 07/04/2010.
Ce texte est disponible sous les termes de la licence de documentation libre GNU (GFDL).
La liste des définitions proposées en tête de page est une sélection parmi les résultats obtenus à l'aide de la commande "define:" de Google.
Cette page fait partie du projet Wikibis.