ARMA

En statistiques, les modèles ARMA, ou aussi modèle de Box-Jenkins, sont les principaux modèles de Séries temporelles.



Catégories :

Économétrie - Statistiques

Recherche sur Google Images :


Source image : zoonek2.free.fr
Cette image est un résultat de recherche de Google Image. Elle est peut-être réduite par rapport à l'originale et/ou protégée par des droits d'auteur.

Page(s) en rapport avec ce sujet :

  • signaux non stationnaires, au moyen d'une classe de modèles autorégressifs à moyenne ajustée (ARMA). La..... posée par [23] : le modèle ARMA est ajusté de ... l'équation d'état associée à un modèle ARMA station-... (source : documents.irevues.inist)
  • Dans le domaine temporel, on peut écrire l'équation récurrente suivante :... un filtre pôles-zéros (ARMA : autorégressif à moyenne ajustée ou Auto-Regressive... Si le modèle ARMA est fréquemment retenu pour modéliser la parole suivant le ... (source : philduweb.free)
  • On peut estimer la fonction f de l'équation d'état avec un modèle..... minimisant l'erreur de prédiction quadratique moyenne, calcule une..... au modèle -hypothèse non linéaire affecté d'un bruit additif ARMA est d'ailleurs... (source : neurones.espci)

En statistiques, les modèles ARMA (modèles autorégressifs et moyenne mobile), ou aussi modèle de Box-Jenkins, sont les principaux modèles de Séries temporelles.

Étant donné une série temporelle Xt, le modèle ARMA est un outil pour comprendre et prédire, peut-être, les valeurs futures de cette série. Le modèle se compose de deux parties : une part autorégressive (AR) et une part moyenne-mobile (MA). Le modèle est le plus souvent noté ARMA (p, q), où p est l'ordre de la partie AR et q l'ordre de la partie MA.

Modèle autorégressif

Article détaillé : Processus autorégressif.

La notation AR (p) réfère au modèle autorégressif d'ordre p. Le modèle AR (p) se note

 X_t = c + \sum_{i=1}ˆp \varphi_i X_{t-i}+ \varepsilon_t .\,

\varphi_1, \ldots, \varphi_p sont les paramètres du modèle, c est une constante et \varepsilon_t un Bruit blanc. La constante est fréquemment omise dans la littérature.

Des contraintes supplémentaires sur les paramètres sont nécessaires pour garantir la stationnarité. A titre d'exemple, pour le modèle AR (1), les processus tels que |φ1| ≥ 1 ne sont pas stationnaires.

Exemple : un processus AR (1)

Un modèle AR (1) est donné par :

X_t = c + \varphi X_{t-1}+\varepsilon_t,\,

\varepsilon_t est un bruit blanc, de moyenne nulle et de variance σ2. Le modèle est stationnaire en variance si |\varphi|<1. Si \varphi=1, alors le processus exhibe une racine unitaire, ce qui veut dire qu'elle est une Marche aléatoire, et n'est pas stationnaire en variance. Supposons par conséquent |\varphi|<1, et en notant la moyenne μ, on obtient

\mbox{E}(X_t)=\mbox{E}(c)+\varphi\mbox{E}(X_{t-1})+\mbox{E}(\varepsilon_t)\Rightarrow \mu=c+\varphi\mu+0.

Ainsi

\mu=\frac{c}{1-\varphi}.

En particulier, prendre c = 0 revient à avoir une moyenne nulle.

La variance vaut

\textrm{var}(X_t)=E(X_tˆ2)-\muˆ2=\frac{\sigmaˆ2}{1-\varphiˆ2}.

La fonction d'autocovariance se donne par

B_n=E(X_{t+n}X_t)-\muˆ2=\frac{\sigmaˆ2}{1-\varphiˆ2}\,\,\varphiˆ{|n|}.

On peut voir que la fonction d'autocovariance décroît avec un taux de \tau=-1/\ln(\varphi).

La Densité spectrale de puissance est la Transformée de Fourier de la fonction d'autocovariance. Dans le cas discret, cela s'écrit :

\Phi(\omega)=
\frac{1}{\sqrt{2\pi}}\,\sum_{n=-\infty}ˆ\infty B_n eˆ{-i\omega n}
=\frac{1}{\sqrt{2\pi}}\,\left(\frac{\sigmaˆ2}{1+\varphiˆ2-2\varphi\cos(\omega)}\right).

Ce développement est périodique dû à la présence du terme en cosinus au dénominateur. En supposant que le temps d'échantillonnage (Δt = 1) est plus petit que le decay time (τ), alors on peut utiliser une approximation continue de Bn :

B(t)\approx \frac{\sigmaˆ2}{1-\varphiˆ2}\,\,\varphiˆ{|t|}

qui présente une forme lorentzienne pour la densité spectrale :

\Phi(\omega)=
\frac{1}{\sqrt{2\pi}}\,\frac{\sigmaˆ2}{1-\varphiˆ2}\,\frac{\gamma}{\pi(\gammaˆ2+\omegaˆ2)}

γ = 1 / τ est la fréquence angulaire associée à τ.

Une expression alternative pour Xt peut être dérivée en substituant Xt − 1 par c+\varphi X_{t-2}+\varepsilon_{t-1} dans l'équation définissante. En continuant cette manipulation N fois apporte

X_t=c\sum_{k=0}ˆ{N-1}\varphiˆk+\varphiˆNX_{t-N}+\sum_{k=0}ˆ{N-1}\varphiˆk\varepsilon_{t-k}.

Pour N devenant particulièrement grand, \varphiˆN s'approche de 0 et :

X_t=\frac{c}{1-\varphi}+\sum_{k=0}ˆ\infty\varphiˆk\varepsilon_{t-k}.

On peut voir que Xt est le bruit blanc convolé avec le noyau \varphiˆk plus une moyenne constante. Si le bruit blanc est gaussien, alors Xt est aussi un processus normal. Dans les autres cas, le Théorème de la limite centrale indique que Xt sera approximativement normal quand \varphi est proche de l'unité.

Estimation des paramètres AR

Le modèle AR (p) est donné par

 X_t = \sum_{i=1}ˆp \varphi_i X_{t-i}+ \varepsilon_t.\,

Les paramètres à estimer sont \varphi_ii = 1, ..., p. Il y a une correspondance directe entre ces paramètres et la fonction de covariance (et par conséquent d'autocorrélation) et on peut tirer les paramètres en inversant ces relations. Ce sont les équations de Yule-Walker :


\gamma_m = \sum_{k=1}ˆp \varphi_k \gamma_{m-k} + \sigma_\varepsilonˆ2\delta_m

m = 0, ..., p, ce qui donne en tout p + 1 équations. Les cœfficients γm est la fonction d'autocorrélation de X, \sigma_\varepsilon est la déviation (écart-type) du bruit blanc et δm le Symbole de Kronecker.

La dernière partie de l'équation est non-nulle si m = 0; en prenant m > 0, l'équation précédente s'écrit comme un dispositif matriciel

\begin{bmatrix}
\gamma_1 \\
\gamma_2 \\
\gamma_3 \\
\vdots \\
\end{bmatrix} 

=

\begin{bmatrix}
\gamma_0 & \gamma_{-1} & \gamma_{-2} & \dots \\
\gamma_1 & \gamma_0 & \gamma_{-1} & \dots \\
\gamma_2 & \gamma_{1} & \gamma_{0} & \dots \\
\vdots      & \vdots         & \vdots       & \ddots \\
\end{bmatrix} 

\begin{bmatrix}
\varphi_{1} \\
\varphi_{2} \\
\varphi_{3} \\
 \vdots \\
\end{bmatrix}

Pour m = 0, nous avons


\gamma_0 = \sum_{k=1}ˆp \varphi_k \gamma_{-k} + \sigma_\varepsilonˆ2

qui sert à trouver \sigma_\varepsilonˆ2.

Les équations de Yule-Walker procurent un moyen d'estimer les paramètres du modèle AR (p), en remplaçant les covariances théoriques par des valeurs estimées. Une manière d'obtenir ces valeurs est de considérer la régression linéaire de Xt sur ses p premiers retards.

Obtention des équations de Yule-Walker

L'équation définissante du processus AR est

 X_t = \sum_{i=1}ˆp \varphi_i\,X_{t-i}+ \varepsilon_t.\,

En multipliant les deux membres par Xtm et en prenant l'espérance, on obtient

E[X_t X_{t-m}] = E\left[\sum_{i=1}ˆp \varphi_i\,X_{t-i} X_{t-m}\right]+ E[\varepsilon_t X_{t-m}].

Or, il se trouve que E[XtXtm] = γm par définition de la fonction d'autocorrélation. Les termes du bruit blancs sont indépendants les uns des autres et , qui plus est , Xtm est indépendant de εtm est plus grand que zéro. Pour m > 0, E[εtXtm] = 0. Pour m = 0,

E[\varepsilon_t X_{t}] 
= E\left[\varepsilon_t \left(\sum_{i=1}ˆp \varphi_i\,X_{t-i}+ \varepsilon_t\right)\right]
= \sum_{i=1}ˆp \varphi_i\, E[\varepsilon_t\,X_{t-i}] + E[\varepsilon_tˆ2]
= 0 + \sigma_\varepsilonˆ2,

Maintenant, on a pour m ≥ 0,

\gamma_m = E\left[\sum_{i=1}ˆp \varphi_i\,X_{t-i} X_{t-m}\right] + \sigma_\varepsilonˆ2 \delta_m.

D'autre part,

E\left[\sum_{i=1}ˆp \varphi_i\,X_{t-i} X_{t-m}\right]
= \sum_{i=1}ˆp \varphi_i\,E[X_{t} X_{t-m+i}]
= \sum_{i=1}ˆp \varphi_i\,\gamma_{m-i},

qui donne les équations de Yule-Walker :

\gamma_m = \sum_{i=1}ˆp \varphi_i \gamma_{m-i} + \sigma_\varepsilonˆ2 \delta_m.

pour m ≥ 0. Pour m < 0,

\gamma_m = \gamma_{-m} = \sum_{i=1}ˆp \varphi_i \gamma_{|m|-i} + \sigma_\varepsilonˆ2 \delta_m.

Modèle moyenne mobile

La notation MA (q) réfère au modèle moyenne-mobile d'ordre q :

 X_t = \varepsilon_t + \sum_{i=1}ˆq \theta_i \varepsilon_{t-i}\,

où les θ1, ..., θq sont les paramètres du modèle et εt, εt-1, ... sont encore une fois des termes d'erreur.

Modèle autorégressif et moyenne-mobile

La notation ARMA (p, q) réfère le modèle avec p termes autoregressifs et q termes moyenne-mobile. Ce modèle contient à la fois les modèles AR (p) et MA (q)  :

 X_t = \varepsilon_t +  \sum_{i=1}ˆp \varphi_i X_{t-i} + \sum_{i=1}ˆq \theta_i \varepsilon_{t-i}.\,

Une note sur les termes d'erreur

Les termes d'erreur εt sont le plus souvent supposés indépendamment et semblablement (i. i. d. ) distribués selon une Loi normale de moyenne nulle : εt ∼ N (0, σ2) où σ2 est la variance. Ces hypothèses peuvent être assouplies mais ceci changerait les propriétés du modèle, comme par exemple supposer le simple caractère iid.


Spécification en termes de l'opérateur de retard

Les modèles ARMA peuvent s'écrire en termes de L, qui est l'opérateur retard. Le modèle autorégressif AR (p) s'écrit

 \varepsilon_t = \left(1 - \sum_{i=1}ˆp \varphi_i Lˆi\right) X_t =  \varphi X_t\,

où φ représente le polynôme

 \varphi = 1 - \sum_{i=1}ˆp \varphi_i Lˆi.\,

Pour le modèle moyenne mobile MA (q), on a

 X_t = \left(1 + \sum_{i=1}ˆq \theta_i Lˆi\right) \varepsilon_t = \theta \varepsilon_t\,

où θ représente le polynôme

 \theta= 1 + \sum_{i=1}ˆq \theta_i Lˆi.\,

Finalement, en combinant les deux aspects, on en tire l'écriture du modèle ARMA (p, q)  :

 \left(1 - \sum_{i=1}ˆp \varphi_i Lˆi\right) X_t = \left(1 + \sum_{i=1}ˆq \theta_i Lˆi\right) \varepsilon_t\,

où plus court :

 \varphi X_t = \theta \varepsilon_t.\,


Modèle d'ajustement

Les modèles ARMA, une fois choisi les ordres p et q, peuvent être ajustés sur des données par la Méthode des moindres carrés : on recherche les paramètres qui minimisent la somme des carrés des résidus. Prendre des valeurs de p et q les plus petites est le plus souvent vu comme une bonne pratique (principe de parcimonie). Pour un modèle AR pur, les équations de Yule-Walker permettent de réaliser l'ajustement.


Voir aussi


Références

Recherche sur Amazone (livres) :



Ce texte est issu de l'encyclopédie Wikipedia. Vous pouvez consulter sa version originale dans cette encyclopédie à l'adresse http://fr.wikipedia.org/wiki/ARMA.
Voir la liste des contributeurs.
La version présentée ici à été extraite depuis cette source le 07/04/2010.
Ce texte est disponible sous les termes de la licence de documentation libre GNU (GFDL).
La liste des définitions proposées en tête de page est une sélection parmi les résultats obtenus à l'aide de la commande "define:" de Google.
Cette page fait partie du projet Wikibis.
Accueil Recherche Aller au contenuDébut page
ContactContact ImprimerImprimer liens d'évitement et raccourcis clavierAccessibilité
Aller au menu