Analyse de la variance

L'analyse de la variance est un test statistique servant à vérifier que plusieurs échantillons sont issus d'une même population.



Catégories :

Statistiques

Recherche sur Google Images :


Source image : tice.inpl-nancy.fr
Cette image est un résultat de recherche de Google Image. Elle est peut-être réduite par rapport à l'originale et/ou protégée par des droits d'auteur.

Définitions :

  • L'analyse de la variance a été utilisée pour comparer la différence entre deux ou plusieurs moyennes.... (source : inpes.sante)

L'analyse de la variance (terme fréquemment abrégé par le terme anglais ANOVA : ANalysis Of VAriance) est un test statistique servant à vérifier que plusieurs échantillons sont issus d'une même population.

Ce test s'applique quand qu'on mesure une ou plusieurs variables explicatives discrètes (appelées alors facteurs de variabilités, leurs différentes modalités étant nommées "niveaux") qui influence sur la distribution d'une variable continue à expliquer. On parle d'analyse à un facteur, quand l'analyse porte sur un modèle décrit par un facteur de variabilité, d'analyse à deux facteurs ou d'analyse multifactorielle.

Principe

L'analyse de la variance permet d'étudier le comportement d'une variables à expliquer continue en fonction d'une ou plusieurs variables explicatives catégorielle. Quand on souhaite étudier le comportement de plusieurs variables à expliquer en même temps, on utilisera une analyse de la variance multiple (MANOVA). Si un modèle contient des variables explicatives catégorielles et continues et qu'on souhaite étudier les lois liant les variables explicatives continues avec la variable à expliquer selon chaque modalité des variables catégorielles, on utilisera alors une analyse de la covariance (ANCOVA).

Modèle

La première étape d'une analyse de la variance consiste à écrire le modèle théorique selon la problématique à étudier. Il est fréquemment envisageable d'écrire plusieurs modèles pour un même problème, suivant les éléments qu'on souhaite intégrer dans l'étude.

Le modèle général s'écrit :

y_{ijk...} = \mu + f(i, j, k, ...) + \epsilon ∼

avec Yijk... la variable à expliquer, μ une constante, f () une relation entre les variables explicatives et ε l'erreur de mesure. On pose l'hypothèse principale que l'erreur suit une loi normale : ε = N (0, σ2) .

Variables explicatives

On peut distinguer deux types de variables catégorielles : avec ou sans effet aléatoire.

Pour une variable à effet fixe, pour chaque modalité, il existe une valeur fixe correspondante. Elles s'écrivent dans le modèle théorique avec une lettre majuscule :

y_i = \mu + A_i + \epsilon_i ∼

avec A = A0 pour i=0, A = A1 pour i=1, etc.

Dans le cas d'une variable à effet aléatoire, la variable est issue d'une loi supposée normale qui s'ajoute à la valeur fixe. Elles s'écrivent dans le modèle théorique avec une lettre grec minuscule :

y_i = \mu + \alpha_i + \epsilon_i ∼

avec αi = μa + εα et \epsilon_\alpha = N(0, \sigma_\alphaˆ2)

Un modèle basé que sur des variables explicatives à effets fixes et effets aléatoires est nommé modèle mixte.

Hypothèses principales

La forme générale de l'analyse de variance repose sur le test de Fisher et par conséquent sur la normalité des distributions et l'indépendance des échantillons.

Hypothèses à tester

L'hypothèse nulle correspond au cas où les distributions suivent la même loi normale. L'hypothèse alternative est qu'il existe au moins une distribution dont la moyenne s'écarte des autres moyennes :

\begin{cases} {H_0∼:∼m_{1}=m_{2}=...=m_{k}=m} \\ {H_1∼:∼\exists (i,j)∼\text{tel que}∼m_i \neq m_j} \end{cases}.

Décomposition de la variance

La première étape de l'analyse de la variance consiste à expliquer la variance totale à expliquer sur la totalité des échantillons selon la variance due aux facteurs (la variance expliquée par le modèle), de la variance due à l'interaction entre les facteurs et de la variance résiduelle aléatoire (la variance non expliquée par le modèle). S_nˆ2 étant un estimateur biaisé de la variance, on utilise la somme des carrés des écarts (SCE en français, SS pour Sum Square en anglais) pour les calculs et l'estimateur non biaisé de la variance S_{n-1}ˆ2 (aussi nommé carré moyen ou CM).

L'écart (sous entendu l'écart à la moyenne) d'une mesure est la différence entre cette mesure et la moyenne :

e = y_{ijk...} - \overline{y}.

La somme des carrés des écarts SCE et l'estimateur S_{n-1}ˆ2 se calculent à partir des formules :

SCE = \sum_{ijk...} (y_{ijk...} - \overline{y})ˆ2 \qquad \text{et} \qquad S_{n-1}ˆ2 = \frac{SCE}{n-1}

Il est alors d'envisageable d'écrire la somme des carrés des écarts total SCEtotal comme étant une composition linéaire de la somme des carrés des écarts de chaque variable explicative SCEfactor et de la somme des carrés des écarts pour chaque interaction SCEinteraction :

SCE_\text{total} = \sum_i { SCE_{\text{facteur}_i} } + \sum_{ij} { SCE_{\text{interaction}_{ij}} }

Cette décomposition de la variance est toujours valable, même si les variables ne suivent pas de loi normale.

Test de Fisher

Par hypothèse, la variable observée yi suit une loi normale. La loi du χ² à k degrés de liberté étant définie comme étant la somme de k lois normales au carré, les sommes des carrés des écarts SCE suivent des lois du χ², avec DDL le nombre de degrés de liberté :

SCE \sim \chiˆ2(DDL)∼

La loi de Fisher est définie comme le rapport de deux lois du χ². Dans le cas de l'hypothèse nulle H0, le rapport entre deux estimateurs non biaisés de la variance S_{DDL}ˆ2∼ doit par conséquent suivre une Loi de Fisher :

F = \frac {Sˆ2_1} {Sˆ2_2} = \frac {\dfrac {SCE_1} {DDL_1}} {\dfrac {SCE_2} {DDL_2}} \sim F(DDL_1, DDL_2)

Si la valeur de F n'est pas compatible avec cette loi de Fisher (c'est-à-dire que la valeur de F est supérieure au seuil de rejet), alors on rejette l'hypothèse nulle : on conclut qu'il existe une différence statistiquement significative entre les distributions. Le facteur de variabilité ne sépare pas la population étudiée en groupes semblables. Pour rappel, la valeur de seuil de rejet Fα (DDL1, DDL2) est précalculée dans les tables de référence, selon le risque de première espèce α et des deux degrés de libertés DDl1 et DDL2.

Tests «post-hoc»

L'analyse de variance permet simplement de répondre à la question de savoir si touts les échantillons suivent une même loi normale. Dans le cas où on rejette l'hypothèse nulle, cette analyse ne permet pas de savoir quels sont les échantillons qui s'écarte de cette loi.

Pour identifier les échantillons correspondant, on utilise différents tests «post-hoc» (ou tests de comparaisons multiples, MCP pour Multiple Comparison Test). Ces tests obligent généralement à augmenter les risques de l'analyse (en termes de risque statistique). C'est une généralisation à k populations du test T de Student de comparaison de moyennes de deux échantillons avec ajustement de l'erreur (FDR, FWER, etc. ) Par exemple : les tests LSD de Ficher, les tests de Newman-Keuls, les tests HSD de Tukey, les tests de Bonferroni et Sheffé.

Dans la biologie moderne, surtout, des tests MCP permettent de prendre en compte le risque de façon correcte malgré le grand nombre de tests effectués (par exemple pour l'analyse de biopuces).

Pourquoi ne pas faire directement ces tests, sans passer par une analyse de la variance avant ?

Quand on analyse plusieurs variables explicatives ayant plusieurs modalités chacune, le nombre de combinaison envisageable devient rapidement particulièrement grand. A titre d'exemple, avec simplement deux variables explicatives ayant respectivement 4 et 3 modalités, le nombre de compositions différentes est des

Analyse de la variance à un facteur

Également nommé one-way ANOVA (en) , l'analyse de la variance à un facteur s'applique quand on souhaite prendre en compte un seul facteur de variabilité.

Notation

Considérons I échantillons Yi d'effectifs ni, issu des I populations qui suivent I lois normales \mathcal{N}(\mu_i, \sigmaˆ2) de même variance. Chaque individu s'écrit yij, avec i \in [1, I] et j \in [1, n_i]. L'effectif total est .

Les moyennes par échantillon et totale s'écrivent :

\overline{y_{i.}} = \frac 1 n_i \sum_{j=1}ˆ{n_i} {y_{ij}} \sim \mathcal{N}\left( \mu_i, \frac {\sigmaˆ2} {n_i} \right)
\overline{y_{..}} = \frac 1 N \sum_{i=1}ˆI \sum_{j=1}ˆ{n_i} {y_{ij}} \sim \mathcal{N}\left( \mu, \frac {\sigmaˆ2} N \right) \qquad \text{avec} ∼ N = \sum_{i=1}ˆI n_i ∼ \text{et} ∼ \mu = \frac 1 N \sum_{i=1}ˆI (n_i \mu_i)

Décomposition de la variance

Le modèle s'écrit :

y_{ij} = \alpha_i + \epsilon_{ij} ∼

Dans ces conditions, on montre que la somme des carrés des écarts (et par conséquent la variance) peut être calculée simplement par la formule :

SCE_\text{total} = SCE_\text{facteur} + SCE_\text{residu} ∼

La part de la variance totale SCEtotal qui peut être expliquée par le modèle (SCEfacteur, aussi nommée variabilité inter-classe, SSB ou Sum of Square Between class) et la part de la variance totale SCEtotal qui ne peut être expliquée par le modèle (SCEresidu aussi nommée variabilité aléatoire, variabilité intra-classe, bruit, SSW ou Sum of Square Within class) sont données par les formules :

SCE_\text{facteur} = \sum_{i=1}ˆp n_i (\overline{y_i} - \overline{y})ˆ2
SCE_\text{residu} = \sum_{i=1}ˆp \sum_{j=1}ˆ{n_i} (y_{ij}- \overline{y_i})ˆ2

Analyse des résidus

Il est toujours envisageable que le modèle ne soit pas correct et qu'il existe un facteur de variabilité inconnu (ou supposé à priori inutile) qui ne soit pas intégré dans le modèle. Il est envisageable d'analyser la normalité de la distribution des résidus pour rechercher ce type de biais. Les résidus, dans le modèle, doivent suivre une loi normale \mathcal{N}(0, \sigmaˆ2)∼). Tout écart significatif comparé à cette loi normale peut être testé ou visualisé graphiquement :

Analyse residus.png
Article détaillé : Tests de normalité.

Test de Fisher

Degrés de liberté et variances

Par hypothèse, la variable observée yi suit une loi normale. La loi du χ² à k degrés de liberté étant définit comme étant la somme de k lois normales au carré, les sommes des carrés des écarts SCE suivent les lois du χ² suivantes, avec p le nombre de niveaux du facteur de variabilité et n le nombre total d'individu :

SCE_\text{facteur} = \sum_{i=1}ˆp n_i (\overline{y_i} - \overline{y})ˆ2 \sim \chiˆ2(DDL_\text{facteur}) \qquad \text{avec} ∼ DDL_\text{facteur} = \sum_{i=1}ˆp 1 = p - 1
SCE_\text{residu} = \sum_{i=1}ˆp \sum_{j=1}ˆ{n_i} (y_iˆj - \overline{y_i})ˆ2 \sim \chiˆ2(DDL_\text{residu}) \quad \text{avec} ∼ DDL_\text{residu} = \sum_{i=1}ˆp (n_i - 1) = (n_1-1)+(n_2-1)+\cdots+(n_p-1) = n - p

Les variances s'obtiennent en faisant le rapport de la somme des carrés des écarts sur le nombre de degrés de liberté :

Sˆ2_\text{facteur} = \frac {SCE_\text{facteur}} {p-1} = \frac 1 {p-1} \sum_{i=1}ˆp n_i (\overline{y_i} - \overline{y})ˆ2
Sˆ2_\text{residu} = \frac {SCE_\text{residu}} {n-p} = \frac 1 {n-p} \sum_{i=1}ˆp \sum_{j=1}ˆ{n_i} (y_iˆj - \overline{y_i})ˆ2

La Loi de Fisher étant défini comme le rapport de deux lois du χ², le rapport \frac {Sˆ2_\text{facteur}} {Sˆ2_\text{residu}} soit par conséquent une Loi de Fisher :

F = \frac {Sˆ2_\text{facteur}} {Sˆ2_\text{residu}} = \frac {\dfrac {SCE_\text{facteur}} {p-1}} {\dfrac {SCE_\text{residu}} {n-p}} \sim F(p-1, n-p)
Remarque

Pour les amateurs de géométrie vectorielle, la décomposition des degrés de liberté correspond à la décomposition d'un espace vectoriel de dimension nm en sous espaces supplémentaires et orthogonaux de dimensions respectives m − 1 et m (n − 1) . Voir par exemple le cours dispensé par Toulouse III : [1] pages 8 et 9. On peut se reporter aussi au livre classique de Scheffé (1959)

Test de correction à la loi de Fisher

F = \frac {\frac {SCE_\text{facteur}} {DDL_\text{facteur}}} {\frac {SCE_\text{total}} {DDL_\text{total}}}

Il se trouve (comme on peut le voir dans la décomposition mathématique) que les deux termes sont l'ensemble des deux une estimation de la variabilité résiduelle si le facteur A n'a pas d'effet. Qui plus est , ces deux termes suivent chacun une loi de χ², leur rapport suit par conséquent une loi de F (voir plus loin pour les degrés de liberté de ces lois). Résumons :

Résumer les choses ainsi sert à clarifier l'idée mais renverse la démarche : on obtient en pratique une valeur du rapport \frac{S_{a}}{S_{r}} qu'on compare à une loi de F, en se donnant un risque α (voir l'article sur les tests et leurs risques). Si la valeur obtenue est trop grande, on en déduit que le rapport ne suit probablement pas une loi de F et que le facteur A a un effet. On conclut par conséquent à une différence des moyennes.

CMB est l'estimateur SA présenté au paragraphe précédent (première approche technique) et CMW l'estimateur SB. On en déduit le F de Fisher, dont la distribution est connue et tabulée sous les hypothèses suivantes :

Le respect de ces hypothèses assure la validité du test d'analyse de la variance. On les vérifie a posteriori par diverses méthodes (tests de normalité, examen visuel de l'histogramme des résidus, examen du graphique des résidus suivant les estimées) voir condition d'utilisation ci-dessous.

Table d'ANOVA

La table d'ANOVA sert à résumer les calculs nécessaire :

Source de la variance Sommes des
carrés des écarts
Degrés de liberté Variance F p-value
Inter-classes SCEfacteur DDLfacteur Sˆ2_\text{facteur} = \frac {SCE_\text{facteur}} {DDL_\text{facteur}} F = \frac {Sˆ2_\text{facteur}} {Sˆ2_\text{residu}} <img class= Intra-classe SCEresidu DDLresidu Sˆ2_\text{residu} = \frac {SCE_\text{residu}} {DDL_\text{residu}}
Total SCEtotal DDLtotal

Exemple illustratif

Prenons un exemple pour illustrer la méthode. Imaginons un agriculteur qui souhaite acheter de nouvelles vaches pour sa production laitière. Il possède trois races différentes de vaches et se pose par conséquent de la question de savoir si la race est importante pour son choix. Il possède comme informations la race de chacune de ses bêtes (c'est la variable explicative discrète ou facteur de variabilité, qui peut prendre 3 valeurs différentes) et leurs productions de lait journalières (c'est la variable à expliquer continue, qui correspond au volume de lait en litre).

Dans notre exemple, l'hypothèse nulle revient à considérer que l'ensemble des vaches produisent la même quantité de lait journalière (au facteur aléatoire près) quelle que soit la race. L'hypothèse alternative revient à considérer qu'une des races produit significativement plus ou moins de lait que les autres.

Supposons que les productions sont :

Race Taille Moyenne Variance
A 4 20, 475 0, 4425
B 7 23, 4 0, 89333
C 5 31, 46 0, 178
Total 16 25, 1875 20, 90117
Table d'ANOVA
Source de la variance Sommes des
carrés des écarts
Degrés de liberté Variance F p-value
Inter-classes 307, 918 2 153, 959 357, 44 4, 338e-12
Intra-classe 5, 6 13 0, 431
Total 313.518 15
Analyse réalisée avec R 
> produc <- c(20.1, 19.8, 21.3, 20.7, 22.6, 24.1, 23.8, 22.5, 
23.4, 24.5, 22.9, 31.2, 31.6, 31.0, 32.1, 31.4)
> race <- as.factor(c("A", "A", "A", "A", "B", "B", "B", "B", "B", 
"B", "B", "C", "C", "C", "C", "C"))

# Regardons les moyennes par groupe:
> tapply(produc, race, mean)
A         B         C 
20.475    23.400    31.460
# On remarque des différences entre groupes, mais sont-elles statistiquement significatives?

# Testons le par l'ANOVA:
> anova(lm(produc~race))
Analysis of variance Table

Response: produc
             Df     Sum Sq    Mean Sq    F value       Pr(>F)
race          2    307.918    153.959     357.44    4.338e-12 ***
Residuals    13      5.600      0.431 

Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1 

Les résultats de l'analyse sont présentés dans un tableau (les couleurs ont été ajoutées pour favoriser l'explication). Le tableau contient 3 lignes : la première contient les titres des colonnes, la dernière contient l'analyse des résidus. La tableau contient aussi une ligne par facteur de variabilité (une seul dans cet exemple).

Analyse de la variance à deux facteurs

Également nommé two-way ANOVA (en) , l'analyse de la variance à deux facteurs s'applique quand on souhaite prendre en compte deux facteurs de variabilité.

Décomposition de la variance

Soit un premier facteur de variabilité pouvant prendre les niveaux i = 1.. p, un second facteur de variabilité pouvant prendre les niveaux j = 1.. q, nij le nombre d'individu dans le niveau i du premier facteur et le niveau j du second facteur et n le nombre d'individu total. La variable à expliquer s'écrit yijk avec i = 1.. p, j = 1.. ni et k = 1.. mj.

La variable à expliquer peut être modélisée par la relation :

Y_{ijk} = \alpha_i + \beta_j + \gamma_{ij} + \epsilon_{ijk} ∼

avec αi l'effet du niveau i du premier facteur, βj l'effet du niveau j du second facteur, γij l'effet d'interaction entre les deux facteurs et εijk l'erreur aléatoire (qui suit alors une loi normale \mathcal{N}(0, \sigmaˆ2)∼).

Le calcul présenté dans le cas à un facteur peut être transposé au cas à deux facteurs :

SCE_\text{total} = SCE_\text{facteur 1} + SCE_\text{facteur 2} + SCE_\text{interaction} + SCE_\text{residu}∼

La part de la variance totale expliquée par le premier facteur (SCEfacteur 1), la part de la variance totale expliquée par le second facteur (SCEfacteur 2), l'interaction entre les deux facteurs (SCEinteraction) et la part de la variance totale qui ne peut être expliquée par le modèle (SCEresidu, nommé aussi variabilité aléatoire ou bruit) sont données par les formules :

SCE_\text{facteur 1} = nq \sum_{i=1}ˆp (\overline{y_i} - \overline{y})ˆ2
SCE_\text{facteur 2} = np \sum_{j=1}ˆq (\overline{y_j} - \overline{y})ˆ2
SCE_\text{interaction} = n \sum_{i=1}ˆp \sum_{j=1}ˆq (\overline{y_{ij}} - \overline{y_i} - \overline{y_j} + \overline{y})ˆ2
SCE_\text{residu} = \sum_{i=1}ˆp \sum_{j=1}ˆq \sum_{k=1}ˆ{n_{ij}} (y_{ijk} - \overline{y_{ij}})ˆ2

L'analyse de l'interaction entre facteurs est assez complexe[1]. Dans le cas où les facteurs sont indépendants, on peut s'intéresser qu'aux effet principaux des facteurs. La formule devient alors :

SCE_\text{total} = SCE_\text{facteur 1} + SCE_\text{facteur 2} + SCE_\text{residu} ∼

Exemple illustratif

Notre exploitant laitier souhaite perfectionner la puissance de son analyse en augmentant la taille de son étude. Pour cela, il inclut les données provenant d'une autre exploitation. Les chiffres qui lui sont apporte sont les suivant :

Analyse réalisée avec R :

> produc <- c(20.1, 19.8, 21.3, 20.7, 22.6, 24.1, 23.8, 22.5, 23.4, 
24.5, 22.9, 31.2, 31.6, 31.0, 32.1, 31.4, 22.8, 21.7, 23.3, 23.1, 
24.1, 22.3, 22.7, 23.1, 22.9, 21.9, 23.4, 23.0, 31.7, 33.1, 32.5, 
35.1, 32.2, 32.6)

> race <- as.factor(c("A", "A", "A", "A", "B", "B", "B", "B", "B", 
"B", "B", "C", "C", "C", "C", "C", "A", "A", "A", "A", "A", "A", 
"A", "B", "B", "B", "B", "B", "C", "C", "C", "C", "C", "C"))

> centre <- as.factor(c(rep("premier", 16), rep("second", 18)))

> anova(lm(produc~race*centre))
Analysis of variance Table

Response: produc
               Df    Sum Sq    Mean Sq     F value       Pr(>F)    
race            2    696.48     348.24    559.6811    < 2.2e-16 ***
centre          1      8.46       8.46     13.6012    0.0009636 ***
race:centre     2     12.23       6.11      9.8267    0.0005847 ***
Residuals      28     17.42       0.62                       
---
Signif. codes:    0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

Analyse de la variance multifactorielle

Décomposition de la variance

On peut toujours décomposer la variance en ajoutant un terme pour chaque facteur et un terme pour chaque interaction envisageable :

Yi = μ + αj + γjk + εi
j j, k

avec αj l'effet du jème facteur et γjk l'interaction entre le jème et le kème facteur.

L'analyse de la variance dans le cas de plusieurs facteurs de variabilité est assez complexe : il est indispensable de définir un modèle théorique correct, étudier les interactions entre les facteurs, analyser la covariance[1].

Limites d'utilisation de l'analyse de la variance

Normalité des distributions

La décomposition de la variance est toujours valable, quelle que soit la distribution des variables étudiées. Cependant, quand on réalise le test de Fisher, on fait l'hypothèse de la normalité de ces distributions. Si les distributions s'écartent un peu de la normalité, l'analyse de la variance est assez robuste pour être utilisée. Dans le cas où les distributions s'écartent fortement de la normalité, on pourra effectuer un changement de variables (par exemple, en prenant les variables y'_i = log(y_i)∼ ou y''_i = y_iˆ2) ou utiliser un équivalent non paramétrique de l'analyse de la variance.

Article détaillé : Tests de normalité.
Homoscédasticité

A l'opposé, l'ANOVA fait une autre hypothèse particulièrement forte et moins évidente. Il est en effet indispensable que la variance dans les différents groupes soit la même. C'est l'hypothèse d'homoscedasticité. L'ANOVA y est particulièrement sensible. Il est par conséquent indispensable de la tester avant toute utilisation.

Au contraire de ce que le nom de cette méthode laisse penser, celle-ci ne permet pas d'analyser la variance de la variable à expliquer mais de comparer les moyennes des distributions de la variable à expliquer suivant les variables explicatives.

Approches non paramétriques

Quand les pré-supposés de l'ANOVA ne sont pas respectés (homoscédasticité par exemple), on entend fréquemment dire qu'il peut être plus judicieux d'utiliser l'équivalent non-paramétrique de l'ANOVA : le test de Kruskal Wallis pour le cas à un facteur ou, pour le cas à deux facteurs sans répétition, le test de Friedman. Pourtant, ces tests ne regardent pas la même chose. Comme il est écrit plus haut, l'ANOVA sert à comparer une mesure univariée entre des échantillons d'au moins deux populations statistiques. Le test de Kruskal-Wallis a pour hypothèse nulle l'homogénéité stochastique, c'est-à-dire que chaque population statistique est égale stochastiquement (on peut dire'aléatoirement'pour simplifier) à une combinaison des autres populations. Ce test s'intéresse par conséquent à la distribution au contraire de l'ANOVA et ne peut par conséquent pas être reconnu comme un équivalent au sens strict.

Voir aussi

Sources

Références

  1. Voir par exemple : Cours et TD de statistique de Lyon 1 pour un exemple d'analyse d'interaction dans un modèle à deux facteurs.

Recherche sur Amazone (livres) :



Ce texte est issu de l'encyclopédie Wikipedia. Vous pouvez consulter sa version originale dans cette encyclopédie à l'adresse http://fr.wikipedia.org/wiki/Analyse_de_la_variance.
Voir la liste des contributeurs.
La version présentée ici à été extraite depuis cette source le 07/04/2010.
Ce texte est disponible sous les termes de la licence de documentation libre GNU (GFDL).
La liste des définitions proposées en tête de page est une sélection parmi les résultats obtenus à l'aide de la commande "define:" de Google.
Cette page fait partie du projet Wikibis.
Accueil Recherche Aller au contenuDébut page
ContactContact ImprimerImprimer liens d'évitement et raccourcis clavierAccessibilité
Aller au menu