Loi de probabilité

En théorie des probabilités et en statistique, une loi de probabilité décrit soit les probabilités de chaque valeur d'une variable aléatoire, soit la probabilité que la variable aléatoire appartienne à un intervalle arbitraire.



Catégories :

Loi de probabilité - Statistiques - Probabilités

Recherche sur Google Images :


Source image : aae-isup.org
Cette image est un résultat de recherche de Google Image. Elle est peut-être réduite par rapport à l'originale et/ou protégée par des droits d'auteur.

Page(s) en rapport avec ce sujet :

  • La loi de probabilité est donnée par les (xi, pi) i.... variable aléatoire. X. Probabilités associées. à la variable X. P (X=xi) ou pi... (source : mathsv.univ-lyon1)
  • On simulera des lois de probabilités simples comme images d'une loi équirépartie par une variable aléatoire (sondage, somme des faces de deux dés, etc…)... (source : membres.multimania)
  • La loi de probabilité est la loi équirépartie.... Probabilités. 5. Espérance mathématique d'une variable aléatoire, Variance, Ecart-type.... (source : mathonleweb.free)

En théorie des probabilités et en statistique, une loi de probabilité décrit soit les probabilités de chaque valeur d'une variable aléatoire (lorsque la variable aléatoire est discrète), soit la probabilité que la variable aléatoire appartienne à un intervalle arbitraire (lorsque la variable est continue). [1] La loi de probabilité décrit la totalité des valeurs qu'une variable aléatoire peut atteindre et la probabilité que la valeur de la variable aléatoire soit dans n'importe quel sous ensemble (mesurable) de cet ensemble.

La loi normale, fréquemment nommée la «courbe en cloche»

Lorsque la variable aléatoire prend ses valeurs dans la loi de probabilité est totalement déterminée par sa fonction de répartition, dont la valeur en chaque réel x est la probabilité que la variable aléatoire soit inférieure ou égale à x.

Le concept de loi de probabilité (et le concept de variable aléatoire) sont les fondements des disciplines mathématiques nommées théorie des probabilités, et statistique. Il y a de la fluctuation ou de la variabilité dans presque toute valeur qui peut être mesurée dans une population (par exemple la taille des individus, la durabilité d'une pièce de métal, etc. )  ; presque l'ensemble des mesures ont une part d'erreur intrinsèque ; en physique, de nombreux processus ont une description probabiliste, de la théorie cinétique des gaz à la description quantique des particules élémentaires. Pour ces raisons surtout, et pour énormément d'autres raisons, de simples nombres sont fréquemment incorrects pour décrire une quantité, tandis qu'une loi de probabilité est plus appropriée.

Bien des lois de probabilités apparaissent dans les applications. Une des plus importantes est la loi normale, qui est aussi connue sous le nom de distribution gaussienne ou de courbe en cloche et qui approxime de nombreuses lois de probabilités apparaissant dans les applications. Le jet d'une pièce donne lieu à une autre loi de probabilité naturelle, dont les valeurs envisageables sont pile ou face, chacune avec probabilité 1/2.

Définition informelle

Une loi de probabilité se définit de différentes manières. Le plus fréquemment, on utilise la fonction de répartition pour caractériser une loi. Cela présente l'avantage d'être valable autant pour les lois discrètes que continues. Mais on peut aussi caractériser une loi mixte avec une fonction de répartition. Dans le cas d'une loi continue, on utilise fréquemment la densité, tandis que dans le cas discret, la donnée des probabilités élémentaires suffit à caractériser la loi en question.

Exemples de lois discrètes

Une variable aléatoire X est discrète si la totalité de ses valeurs envisageables est fini ou dénombrable. On dit tandis que sa loi est discrète. Pour une définition plus formelle, voir la section "Classification des lois de probabilités sur la droite réelle". Pour la majorité des lois discrètes classiques, les valeurs envisageables de X sont des entiers naturels. On définit alors la loi discrète en donnant la probabilité que X prenne chaque valeur entière envisageable n, soit

\ P(X = n) ou \ \mathbb{P}(X = n).

Loi uniforme discrète

Article détaillé : Loi uniforme discrète.

La loi uniforme discrète correspond à des événements équiprobables (exemple : lancer de dés, n=6)  :

Loi de Bernoulli

Article détaillé : Loi de Bernoulli.

La loi de Bernoulli correspond à un lancer de pile ou face :

Loi binomiale

Article détaillé : Loi binomiale.

C'est la loi du nombre de succès obtenus à l'issue de n épreuves de Bernoulli indépendantes de paramètre p.

Loi hypergéométrique

Article détaillé : Loi hypergéométrique.

Loi de Poisson

Article détaillé : Loi de Poisson.

Loi géométrique

Article détaillé : Loi géométrique.

Exemples de lois à densité

Article détaillé : Densité de probabilité.

Une variable aléatoire réelle possède une densité de probabilité, si pour tous nombres réels on a

\mathbb{P}(a < X < b) = \int_aˆb f_X(x)\, \textrm{d}x.

On dit aussi tandis que la loi de possède une densité, ou bien est à densité. D'une manière équivalente, on dit que est totalement continue comparé à la mesure de Lebesgue.

En conséquence, pour tout nombre réel et la fonction de répartition de est continue. On a plus exactement

F_X(x) = \int_{-\infty}ˆx f_X(u)\, \textrm{d}u.

Les variables aléatoires à densité sont quelquefois nommées variables continues.

Loi uniforme

Article détaillé : Loi uniforme continue.

Loi uniforme continue sur un intervalle borné [a; b] :

Loi normale

Article détaillé : Loi normale.

Loi exponentielle

Article détaillé : Loi exponentielle.

Loi logistique

Article détaillé : Loi logistique.

Loi de Cauchy

Article détaillé : Loi de Cauchy.

 f_X(x)=\frac{1}{\pi}\frac{1}{1+xˆ2}\,

La loi de Cauchy n'admet aucun moment (donc ni moyenne ni variance, entre autres).

Loi de Tukey-Lambda

La Loi de Tukey-Lambda est connue de façon implicite par la distribution de ses quantiles :

G(p) = {pˆ\lambda - (1-p)ˆ\lambda\over \lambda}

elle a ensuite été généralisée.

Définition mathématique

En théorie des probabilités, une loi (ou mesure) de probabilité est une mesure positive sur un espace mesurable, telle que. Le triplet est nommé espace probabilisé.

Définition — Soit une variable aléatoire réelle sur l'espace probabilisé, c'est-à-dire une fonction mesurable (la totalité étant pourvu de sa tribu borélienne). On nomme loi (de probabilité) de la variable aléatoire la mesure de probabilité définie sur l'espace mesurable par :

\mathbb{P}_X(B) = \mathbb{P}\left(Xˆ{-1}(B)\right) = \mathbb{P}\left(X\in B\right),

pour tout borélien de On dit quelquefois que est la mesure image de par.

Deux variables aléatoires réelles et ont même loi si (égalité de fonctions). Cela se réécrit

\forall B\in\mathcal{B}_{\mathbb{R}},\qquad\mathbb{P}_X(B)\ = \mathbb{P}_Y(B),

ou bien toujours

\forall B\in\mathcal{B}_{\mathbb{R}},\qquad\mathbb{P}(X\in B)\ = \mathbb{P}(Y\in B).

D'une façon plus générale, deux variables aléatoires réelles et ont même loi si

\mathbb{E}\left[\phi(X)\right]\ = \mathbb{E}\left[\phi(Y)\right]

pour toute fonction de dans telle qu'au moins un des deux termes de l'égalité ait un sens. Cela est dû au théorème de transfert, selon lequel

Théorème de transfert — Soit une variable aléatoire réelle Alors,

\mathbb{E}\left[\phi(X)\right] = \int_{\mathbb{R}}\ \phi(x)\ \mathbb{P}_X(dx),

pour toute fonction de dans telle qu'au moins un des deux termes de l'égalité ait un sens.

L'intégrale apparaissant dans le deuxième terme est l'intégrale, au sens de la théorie de la mesure, de la fonction φ comparé à la mesure Cette intégrale prend la forme d'une somme ou d'une intégrale dans les deux cas classiques où X est discrète et où X est à densité, voir ci-dessous.

Caractérisation de la loi de probabilité d'une variable aléatoire réelle

En probabilité, il est essentiel de pouvoir vérifier que deux variables aléatoires (réelles ou pas) ont la même loi de manière la plus économique envisageable, or les caractérisations ci-dessus exigent de vérifier des familles d'identités énormément trop riches (pour tout borélien B, pour toute fonction borélienne φ... ). Une solution plus ergonomique est apportée par les notions de fonction de répartition, ou de fonction caractéristique.

Caractérisation avec la fonction de répartition

La loi d'une variable aléatoire réelle est caractérisée par sa fonction de répartition : deux variables aléatoires réelles et ont même loi si elles ont même fonctions de répartition, i. e. si

\forall x\in\mathbb{R},\qquad\mathbb{P}(X\le x)\ = \mathbb{P}(Y\le x).

Ainsi il suffit de vérifier l'égalité caractéristique pour une famille réduite de boréliens particulièrement spécifiques, les boréliens de la forme pour démontrer les égalités et en toute généralité. Ce résultat essentiel est une conséquence du Lemme de classe monotone dû à Wacław Sierpiński.

Caractérisation avec la fonction caractéristique

La loi d'une variable aléatoire réelle est caractérisée par sa fonction caractéristique : deux variables aléatoires réelles et ont même loi si elles ont même fonction caractéristique, i. e. si

\forall t\in\mathbb{R},\qquad\mathbb{E}\left[eˆ{itX}\right]\ = \mathbb{E}\left[eˆ{itY}\right].

Ainsi il suffit de vérifier l'égalité caractéristique pour une famille réduite de fonctions particulièrement spécifiques, les fonctions de la forme et pour démontrer que et ont même loi.

Caractérisation avec la transformée de Laplace

La loi d'une variable aléatoire réelle positive ou nulle est caractérisée par sa transformée de Laplace : deux variables aléatoires réelles positives ou nulles et ont même loi si elles ont même transformée de Laplace, i. e. si

<img class=Caractérisation avec la fonction génératrice

La loi d'une variable aléatoire à valeurs entières positives ou nulles est caractérisée par sa fonction génératrice : deux variables aléatoires à valeurs entières positives ou nulles et ont même loi si elles ont même fonction génératrice, i. e. si

\forall s\in\mathbb{R},\qquad\mathbb{E}\left[sˆ{X}\right]\ = \mathbb{E}\left[sˆ{Y}\right].

Classification des lois de probabilité sur la droite réelle

Les lois énumérées dans cet article sont des mesures de probabilités sur. Ces lois apparaissent généralement dans les applications comme les lois de probabilité de certaines variables aléatoires réelles. Les lois énumérées dans cet article sont de deux types :

  • quand la loi de la variable aléatoire X est portée par un ensemble S
\text{— ià}\  \mathbb{P}\left(X\notin S\right)=0\text{ —}
tel que S est fini ou dénombrable, on parle de loi de probabilité discrète.
D'un point de vue pratique, les calculs de probabilités ou bien d'espérances liées à font alors intervenir des calculs de sommes finies ou de séries :
\mathbb{P}\left(X\in A\right)=\sum_{x\in A\cap S}\ \mathbb{P}\left(X=x\right),\qquad\mathbb{E}\left[\phi(X)\right]=\sum_{x\in S}\ \phi(x)\mathbb{P}\left(X=x\right).
Pour une variable discrète, on peut choisir comme ensemble la totalité des réels tels que 0. \ " src="http ://upload. wikimedia. org/math/7/a/e/7ædc3e00e90be9458bebb445b11a85f. png" />
La seconde égalité ci-dessus est la spécialisation du théorème de transfert au cas spécifique des variables discrètes, puisque dans ce cas spécifique, on a
\int_{\mathbb{R}}\ \phi(x)\ \mathbb{P}_X(dx)=\sum_{x\in S}\ \phi(x)\mathbb{P}\left(X=x\right).
  • quand la loi de est totalement continue comparé à la mesure de Lebesgue sur, ou bien, d'une manière équivalente, quand la fonction de répartition de est localement totalement continue, on parle de variable ou de loi totalement continue, ou bien de variable ou de loi à densité. Dans ce cas, en vertu du Théorème de Radon-Nikodym, la mesure (ou la variable) possède une densité de probabilité (notons-la) comparé à la mesure de Lebesgue. D'un point de vue pratique, les calculs de probabilités ou bien d'espérances liées à font alors intervenir des calculs d'intégrales :
\mathbb{P}\left(X\in A\right)=\int_{A}\ f_X(x)\,dx,\qquad\mathbb{E}\left[\phi(X)\right]=\int_{\mathbb{R}}\ \phi(x)\ f_X(x)\,dx.
Ici encore, la seconde égalité ci-dessus est la spécialisation du théorème de transfert, mais cette fois, au cas spécifique des variables à densité, puisque dans ce cas spécifique, on a
\int_{\mathbb{R}}\ \phi(x)\ \mathbb{P}_X(dx)=\int_{\mathbb{R}}\ \phi(x)\ f_X(x)\,dx.
Une variable à densité vérifie pour tout nombre réel Cependant, cette dernière propriété, qui oppose les variables à densité aux variables discrètes, n'est pas caractéristique des variables à densité.

Il existe d'autres types de variables aléatoires réelles :

  • la loi d'une variable aléatoire peut particulièrement bien n'être ni discrète ni totalement continue. Elle peut, par exemple, être un mélange des deux : si la loi de la durée de vie (avant panne) d'un composant d'un certain type suit la loi exponentielle d'espérance 1 (an), et si par mesure de sécurité, on décide de remplacer chaque composant en cas de panne, mais également dès que le composant atteint l'age d'un an, même s'il n'est pas encore tombé en panne, alors la durée d'utilisation du composant () n'est ni discrète ni totalement continue. En effet les calculs de probabilités ou bien d'espérances liées à font alors intervenir des calculs d'intégrales et de sommes :
\mathbb{P}\left(X\in A\right)=eˆ{-1}1_A(1)+\int_{A}\ eˆ{-x}\,1_{[0,1]}(x)\,dx,\qquad\mathbb{E}\left[\phi(X)\right]=eˆ{-1}\phi(1)+\int_{0}ˆ1\ \phi(x)\ eˆ{-x}\,dx.
  • dans le cas précédent, la fonction de répartition de la durée d'utilisation est discontinue en 1. C'est une propriété générale : la fonction de répartition d'une variable aléatoire réelle est discontinue en si et uniquement si 0. \ " src="http ://upload. wikimedia. org/math/6/1/d/61d4889d699e83895626c7f125c7f68f. png" /> On voit que les variables à densité ont des fonctions de répartitions localement totalement continues, par conséquent, a fortiori, continues sur tandis que les fonctions de répartition des variables discrètes et du mélange évoqué auparavant possèdent des discontinuités sur la droite réelle. Le tableau est toujours compliqué par l'existence de variables aléatoires dont la fonction de répartition est continue sur mais pas totalement continue, et qui ne sont par conséquent pas à densité. C'est le cas, par exemple, de
X\ =\ \sum_{n\ge 1}\ 2\,Y_n\,3ˆ{-n},
où les désignent une suite de variables de Bernoulli indépendantes de paramètre 0, 5. est un nombre dont on tire le développement triadique à pile ou face : à chaque pile on ajoute le chiffre 2, ainsi qu'à chaque face le chiffre 0, excluant ainsi le chiffre 1. La fonction de répartition de est l'escalier de Cantor. Une telle variable doit-elle être nommée continue (sa fonction de répartition l'est ), ou pas (elle n'a pas de densité de probabilité)  ? Le débat n'est pas particulièrement aigu, car ce type de variables apparait rarement dans les applications.

Histoire

L'allure générale des lois de probabilité usuelles fut au début observée empiriquement, puis on en formalisa la définition dans le cadre de la théorie des probabilités en mathématiques.

Maximum d'entropie

Les lois de probabilité usuelles sont fréquemment classées par familles dépendant d'un paramètre. La loi normale par exemple est paramétrée par sa moyenne et son écart type. La majorité des familles usuelles de lois de probabilités sont celles offrant le maximum d'entropie (l'entropie est une mesure de l'information moyenne d'une source, au sens de Claude Shannon, par conséquent le plus d'information) sous contraintes, par exemple :

  • La distribution uniforme est celle d'entropie maximale parmi les lois à support borné.
  • La distribution normale est celle d'entropie maximale parmi l'ensemble des lois envisageables ayant même moyenne et même écart type.
  • La distribution exponentielle est celle d'entropie maximale parmi les lois portées par et ayant la même moyenne.
  • Les lois scalantes comme celle de Zipf ou de Mandelbrot sont d'entropie maximale parmi celles auxquelles on impose la valeur du logarithme d'une moyenne, c'est-à-dire un ordre de grandeur.

En quelque sorte, ces lois ne contiennent pas plus d'information que ce qui est obligatoire. Ce sont les moins prévenues de l'ensemble des lois compatibles avec les observations ou les contraintes, et par conséquent les seules acceptables objectivement comme distributions de probabilités a priori quand ces valeurs sont imposées et seules connues. Cette propriété joue un grand rôle dans les méthodes bayésiennes.

Voir aussi

Exemples de distribution

Références

  1. B. S. Everitt. 2006. The Cambridge Dictionary of Statistics, Third Edition. pp. 313–314. Cambridge University Press, Cambridge. ISBN 0-521-69027-7

Liens connexes

Recherche sur Amazone (livres) :



Ce texte est issu de l'encyclopédie Wikipedia. Vous pouvez consulter sa version originale dans cette encyclopédie à l'adresse http://fr.wikipedia.org/wiki/Loi_de_probabilit%C3%A9.
Voir la liste des contributeurs.
La version présentée ici à été extraite depuis cette source le 07/04/2010.
Ce texte est disponible sous les termes de la licence de documentation libre GNU (GFDL).
La liste des définitions proposées en tête de page est une sélection parmi les résultats obtenus à l'aide de la commande "define:" de Google.
Cette page fait partie du projet Wikibis.
Accueil Recherche Aller au contenuDébut page
ContactContact ImprimerImprimer liens d'évitement et raccourcis clavierAccessibilité
Aller au menu