Physique statistique

La physique statistique a pour but d'expliquer le comportement et l'évolution de dispositifs physiques comportant la plupart de particules, à partir des caractéristiques de leurs constituants microscopiques.



Catégories :

Physique statistique - Statistiques - Thermodynamique

Recherche sur Google Images :


Source image : inac.cea.fr
Cette image est un résultat de recherche de Google Image. Elle est peut-être réduite par rapport à l'originale et/ou protégée par des droits d'auteur.

Page(s) en rapport avec ce sujet :

  • Le laboratoire Instrumentation, Matériaux Avancés, Physique des Electrons... supraconductivité à l'échelle mésoscopique, systèmes supraconducteurs.... Théorie quantique des champs, physique statistique et théorie à N-corps.... (source : inac.cea)
  • L'objectif de la physique statistique est d'établir la façon dont s'opère cette réduction du ... Introduction historique à la physique statistique (approches... (source : h0.web.u-psud)
  • Physique statistique et dispositifs complexes. Physique statistique et dispositifs... Ce système réalise un écoulement stable de matière granulaire qui est ... (source : iramis.cea)

La physique statistique a pour but d'expliquer le comportement et l'évolution de dispositifs physiques comportant la plupart de particules (on parle de dispositifs macroscopiques), à partir des caractéristiques de leurs constituants microscopiques (les particules). Ces constituants peuvent être des atomes, des molécules, des ions, des électrons, des photons, des neutrinos, ou des particules élémentaires. Ces constituants, et les interactions qu'ils peuvent avoir entre eux, sont généralement décrits par la mécanique quantique, mais la description macroscopique d'un ensemble de tels constituants ne fait, elle , pas directement appel (ou en tout cas pas forcément) à la mécanique quantique. De fait, cette description macroscopique, surtout la thermodynamique, a été obtenue pour partie avant le développement de la mécanique quantique comme théorie physique, principalement dans la seconde moitié du XIXe siècle.

On peut distinguer la physique statistique d'équilibre (au sens d'équilibre thermodynamique), auquel cet article est consacré, de la physique statistique hors d'équilibre.

Historique

Mouvement brownien d'une particule.

La physique statistique (appelé aussi «thermodynamique statistique») fut introduite originellement sous la forme de la théorie cinétique des gaz à partir du milieu du XIXe siècle, essentiellement par Kelvin, Maxwell et Boltzmann. Cette première approche visait à proposer un modèle simple de la matière à l'échelle atomique, et surtout des collisions entre atomes ou molécules, pour reproduire le comportement de certaines quantités macroscopiques. C'est à cette époque que l'interprétation de la pression comme mesure de la quantité de mouvement des constituants d'un gaz a été formalisée.

La mécanique statistique fut formalisée en 1902 par Gibbs[1], son formalisme servant à généraliser et de justifier a posteriori les principes de la thermodynamique d'équilibre.

Les premières extensions de la physique statistique, comparé à la mécanique statistique, ont été l'introduction des propriétés électriques et magnétiques de la matière au sein des modèles, donnant la possibilité la description des transitions de phase dans les matériaux magnétiques ou diélectriques, comme la transition ferromagnétique.

Une autre étape importante fut la modification des formules statistiques, entre les années 1920 et 1930, pour tenir compte des effets de l'indiscernabilité au niveau quantique des particules (principe d'exclusion de Pauli). Cette modification fut effectuée par Bose et Einstein pour les dispositifs de particules de spin entier (bosons) et par Fermi et Dirac pour les dispositifs de particules de spin demi-entier (fermions).

Introduction et généralités

Typiquement, à notre échelle, un dispositif matériel à l'équilibre thermodynamique est décrit avec un nombre restreint de paramètres dits macroscopiques caractérisant les valeurs de certaines grandeurs physiques macroscopiques ; par exemple, un volume de gaz à l'équilibre est caractérisé par sa densité μ, sa pression P, sa température T, et son volume V. La physique statistique établit des liens statistiques entre ces grandeurs physiques macroscopiques et d'autres grandeurs microscopiques caractérisant les constituants élémentaires (atomes ou molécules) du dispositif matériel.

Cette procédure est utile, car il est en pratique impossible de suivre l'évolution des constituants individuels du gaz. A titre d'exemple, un litre d'air contient à peu près 3×1022 molécules (un nombre de l'ordre du nombre d'Avogadro). Même s'il était envisageable de suivre l'évolution individuelles de chacune d'elles, cela ne donnerait pas d'information pertinente sur le dispositif. L'objectif de la physique statistique est de définir les quantités macroscopiques pertinentes qui permettent de décrire un tel dispositif composé d'un particulièrement grand nombre de particules, et les relations entre ces différentes quantités. Elle doit aussi relier ces quantités macroscopiques à des quantités d'origine microscopiques qui décrivent les constituants du dispositif. A titre d'exemple, la température d'un gaz parfait est une mesure de l'énergie cinétique totale des particules qui le composent.

Une des raisons qui permet un passage du microscopique au macroscopique est en fait le nombre gigantesque des constituants du dispositif. Pour cette raison, on parle de l'énergie cinétique E totale des molécules d'un gaz, car les fluctuations statistiques ΔE d'une telle quantité (il est envisageable que l'énergie cinétique totale des molécules du gaz soit, dans une petite région, un peu différente de la valeur moyenne attendue) sont limitées par la relation (issue de la loi de Poisson)

\frac{\Delta E}{E} \sim \frac{1}{\sqrt{N}},

N est le nombre de molécules du volume de gaz reconnu. Même pour des petits volumes, par exemple de l'ordre de 1 mm3 pour un gaz à TPN, soit à peu près 3×1016 particules, les fluctuations de l'énergie cinétique totale sont inférieures à 10-8 et en pratique presque toujours négligeables.

Postulat essentiel

Énoncé

Le postulat essentiel de la physique statistique d'équilibre (aussi connu comme le postulat des probabilités a priori identiques) est :

Étant donné un dispositif isolé en équilibre, il se trouve avec probabilités identiques dans chacun de ses micro-états accessibles.

Ce postulat est une hypothèse principale en physique statistique : il veut dire qu'un dispositif n'a pas plutôt pour n'importe quel de ses microétats accessibles. Étant donnés Ω microétats à énergie donnée, la probabilité que le dispositif se trouve à un microétat spécifique est p = 1/Ω. Ce postulat, indispensable, sert à conclure que pour un dispositif à l'équilibre, l'état thermodynamique (le macroétat) qui peut résulter du plus grand nombre de microétats est aussi le macroétat le plus probable du dispositif.

Comparé aux postulats sous-tendant la théorie cinétique des gaz, c'est un saut dans l'abstraction qui permet l'ensemble des généralisations. Cet énoncé remplace avantageusement les modèles microscopiques à la fois simplistes et néenmoins lourdement calculatoires par des incertitudes statistiques. Le modèle s'applique a priori à tout dispositif possédant un mécanisme de redistribution statistique de l'énergie au niveau microscopique.

Origine : l'hypothèse ergodique

Dans le cadre naissant de la théorie cinétique des gaz, Boltzmann a formulé en 1871 une hypothèse, connue actuellement sous le nom d'hypothèse ergodique : «Le point représentatif d'un dispositif hamiltonien invariant par translation dans le temps passe au cours du temps par chaque point de l'hypersurface d'énergie constante.»

Il a été prouvé en 1910 que cette hypothèse était fausse, mais on a depuis démontré que certains dispositifs physiques vérifient l'hypothèse quasi-ergodique :

Le point représentatif d'un dispositif hamiltonien invariant par translation dans le temps passe au cours du temps aussi près qu'on veut de chaque point de l'hypersurface d'énergie constante.

Cependant, en dépit de progrès particulièrement important réalisés en théorie ergodique et en théorie du chaos, l'utilisation de l'hypothèse quasi-ergodique pour justifier le postulat essentiel de la physique statistique reste à ce jour controversée [2].

Équiprobabilité et information

En théorie de l'information, l'information est l'opposée du logarithme de la probabilité : I = -\ln\ p.

Dans ce contexte, l'entropie est définie comme la moyenne de l'information contenue dans le dispositif :

S\ = \ \langle \ I \ \rangle\ = \ -\sum_i \ p_i \ \ln p_i

C'est une fonction continue de plusieurs variables, dont on peut montrer qu'elle admet un maximum global quand l'ensemble des pi sont égaux. Ceci veut dire qu'avec l'hypothèse d'équiprobabilité, S est maximale. On interprète cela en disant qu'on a alors un minimum d'information, ou encore un maximum d'incertitude, sur le dispositif.

Par contre, lorsque l'un des évènements est certain, sa probabilité vaut 1 alors que l'ensemble des autres pi sont nuls. On connait alors précisément la configuration du dispositif et l'incertitude est nulle. Dans ce cas l'entropie admet sa valeur minimale, en l'occurrence 0.

Généralisations aux problèmes analogues

Les méthodes de description mathématique développées dans le cadre de la physique statistique ont trouvé des applications dans quasiment l'ensemble des domaines de la physique moderne ou de la chimie, mais également en économie, dans les sciences humaines, etc.

Outils et procédés

La formulation moderne de cette théorie se fonde sur la description des systèmes physiques étudiés par le biais d'ensembles statistiques. De tels ensembles représentent la totalité des configurations envisageables du dispositif associées à leur probabilités de réalisation. À chaque ensemble est associée une fonction de partition qui, par manipulations mathématiques, permet d'extraire les grandeurs thermodynamiques du dispositif. Selon les relations du dispositif avec le reste de l'univers, on distingue le plus souvent trois types d'ensemble, du plus simple au plus complexe :


Tableau résumant
les ensembles
en physique statistique
Ensembles
Microcanonique Canonique Grand-canonique
Variables indépendantes E, N, V ou B T, N, V ou B T, μ, V ou B
Fonction microscopique nombre des micro-états

Ω
Fonction de partition canonique

Z = \sum_k eˆ{-\beta E_k}
Fonction de partition grand-canonique

 \Xi \ = \ \sum_i eˆ{ -\beta (E_i - \mu N_i ) }
Potentiel thermodynamique Entropie

S \ = \ k_B \  \ln \Omega
Energie libre

F \ = \ - \ k_B T \ \ln Z
Grand potentiel

\Phi_G=- \ k_B T \ln \Xi

Ensemble microcanonique

Article détaillé : Ensemble microcanonique.

Cet ensemble décrit le cas parfait d'un dispositif totalement isolé d'énergie E constante, et n'échangeant par conséquent ni particule, ni énergie, ni volume avec le reste de l'univers. L'intérêt de ce modèle est qu'il sert à définir l'entropie sous sa forme la plus simple.

Entropie microcanonique

Le dispositif étant à l'équilibre macroscopique, mais libre d'évoluer à l'échelle microscopique entre Ω micro-états différents, son entropie est donnée par la formule de Boltzmann (1877)  :

S \ = \ k_B \  \ln \Omega

kB est la constante de Boltzmann. Cette définition correspond à l'entropie de Shannon :

S \ = \ - \ k_B \sum_{i} p_i \ \ln p_i

d'une configuration de Ω micro-états équiprobables :

p_i \ = \ \frac{1}{\Omega}

Extensivité de l'entropie

Article détaillé : Extensivité - intensivité.

L'énergie macroscopique totale E du dispositif isolé étudié est toujours supérieure ou égale à une certaine valeur E0 minimale, nommée énergie de l'état essentiel du dispositif. Qui plus est , le comptage du nombre Ω de micro-états du dispositif fermé d'énergie totale E nécessite[3] généralement l'introduction d'une certaine incertitude ΔE d'ordre mésoscopique.

On peut montrer que, pour un dispositif «ordinaire»[4], le nombre Ω de micro-états est une fonction rapidement croissante de l'énergie de la forme :

\Omega (E, N) \ \propto \ \left(E - E_0 \right)ˆN

N le nombre de degrés de liberté total du dispositif, supposé particulièrement grand. Il est alors envisageable de montrer[5] que quand l'énergie totale E n'est pas trop proche de sa valeur minimale, l'entropie S (E, N) calculée par la formule de Boltzmann est :

Ensemble canonique

Article détaillé : Ensemble canonique.

La totalité canonique décrit un dispositif fermé en équilibre thermique avec un thermostat extérieur. Ce dispositif fermé peut par conséquent échanger de l'énergie sous forme de transfert thermique avec l'extérieur, à l'exclusion de toute autre quantité.

Fonction de partition canonique

Dans les conditions citées ci-dessus, on démontre que la probabilité pi pour que le dispositif fermé réalise un état i d'énergie Ei est donnée par la formule de Boltzmann :

p_i \ = \ \frac{eˆ{-\beta E_i}}{Z}

où le facteur \beta ={1\over {k_B T}}, quelquefois nommé «température inverse», traduit la thermalisation du dispositif avec le thermostat extérieur à la température T. Le facteur de normalisation Z se calcule en écrivant la condition des probabilités totales :

 \sum_{i} p_i \ = \ 1

Z est nommé la fonction de partition canonique du dispositif fermé, et s'écrit explicitement :

Z \ = \ \sum_{\{k \ \mathrm{accessible}\}} eˆ{-\beta E_k}

Cette fonction de partition sert à déduire l'ensemble des grandeurs macroscopiques du dispositif fermé comme moyennes des grandeurs microscopiques associées.

Observables macroscopiques

L'énergie interne U est la moyenne macroscopique de la totalité des énergies microscopiques Ei :

 U \ = \ \langle \ E \ \rangle \ = \ \sum_{ \{ i \ \mathrm{accessible} \}} p_i \ E_i \ = \ - \ \frac{1}{Z} \ \frac{d Z}{d \beta} \ = \ - \ \frac{d \ln Z}{d \beta}

De même, pour toute grandeur A prenant des valeurs Ai définies sur les micro-états i associés aux énergies Ei, on peut définir la valeur moyenne :

\langle \ A \ \rangle \ = \ \sum_{ \{ i \ \mathrm{accessible} \}} p_i \ A_i

Appliquons surtout cette formule à l'entropie, en posant que les micro-états Ei définissent des dispositifs représentables comme des ensembles microcanoniques, nous avons défini pour chaque micro-état i une entropie microcanonique :

S_i \ = \ k_B \ \ln \Omega_i \ = \ - \ k_B \ \ln p_i

L'entropie totale du dispositif prend alors la forme :

S \ = \ \langle \ S_i \ \rangle \ = \ \sum_{ \{ i \ \mathrm{accessible} \}} p_i \ S_i

\  = \ - \ \sum_{ \{ i \ \mathrm{accessible} \}} k_B \ p_i \ \ln  p_i

Remplaçons la probabilité par son expression dans le logarithme :


S \ = \ - \ k_B  \ \sum_{ \{ i \ \mathrm{accessible} \}} \ p_i \ \times \ \ln ( {eˆ{ - \beta E_i} / Z})
 = \ + \ k_B \  \sum_{\{i \ \mathrm{accessible} \}} \ p_i \ \times \  \left[  \ \beta E_i + \ln Z \ \right]

D'après la définition de la température inverse, on a : kBβ = 1 / T, d'où :

S \ = \ {1 \over T} \ \sum_{\{i \ \mathrm{accessible} \}} \ p_i \ E_i \quad + \quad k_B \ \sum_{ \{ i \ \mathrm{accessible} \}} \ p_i \ \ln Z

On reconnaît dans le premier terme la valeur moyenne de l'énergie. D'autre part, le logarithme de Z est indépendant de l'indice i. On obtient alors en utilisant la condition de normalisation des probabilités :

S \ = \ {\langle \ E \ \rangle \over T } \ + \ k_B \ \ln Z \ = \ {U \over T} \ + \ k_B \ \ln Z

En rapprochant cette formule de celle donnant l'énergie libre F en thermodynamique : F = U - T S, il vient naturellement :

F \ = \ - \ k_B T \ \ln Z

ou encore :

 Z \ = \ e ˆ{-\beta F}

Tableau récapitulatif

Les expressions de F, de U et de S sont suffisantes pour en déduire l'ensemble des autres grandeurs thermodynamiques :

Nom Formule
énergie libre de Helmholz F \ = \ - \ { \ln Z \over \beta}
énergie interne U \ = \ - \ \left( {\partial\ln Z \over \partial\beta} \right)_{N,V}
pression p \ = \ - \ \left( {\partial F \over \partial V} \right) \ = \ {1 \over \beta} \ \left( {\partial \ln Z \over \partial V} \right)_{N,T}
entropie S \ = \ k_B \ ({\ln Z + \beta U})\,
enthalpie libre de Gibbs G \ = \ F \ + \ pV \ = \ - \ {\ln Z \over \beta} \ + \ {V \over \beta} \ \left( {\partial \ln Z \over \partial V} \right)_{N,T}
enthalpie H \ = \ U \ + \ pV\,
chaleur spécifique à volume constant C_V \ = \ \left( {\partial U \over \partial T} \right)_{N,V}\,
chaleur spécifique à pression constante C_p  \ = \ \left( {\partial U \over \partial T} \right)_{N,p}\,
potentiel chimique \mu_i \ = \ - \ {1\over \beta} \ \left( {\partial \ln Z \over \partial N_i} \right)_{T,V,N}

Pour la dernière entrée, il ne s'agit pas de la totalité grand-canonique. Il est fréquemment utile de considérer que l'énergie d'une molécule donnée est distribuée entre plusieurs modes. A titre d'exemple, l'énergie de translation est la partie de l'énergie relative au mouvement du centre de masse de la molécule. L'énergie de configuration se rapporte à la portion de l'énergie associée aux diverses forces attractives et répulsives entre les molécules du dispositif. Les autres modes sont tous reconnus comme internes aux molécules. Ils incluent les modes rotationnels, vibrationnels, électroniques et nucléaires. Si nous supposons que chaque mode est indépendant, l'énergie totale peut être exprimée comme la somme de la contribution de chaque composant :

 E \ = \ E_t \ + \ E_c \ + \ E_n \ + \ E_e \ + \ E_r \ + \ E_v

où les indices t, c, n, e, r et v correspondent aux énergies des modes de translation, de configuration, nucléaires, électroniques, rotationnels, et vibrationnels respectivement.

En substituant cette équation dans la toute première équation, nous obtenons :

Z \ = \ \sum_{ i_j \ \mathrm{niveau \ interne \ a} \ j } \ \left[ \ \prod_{j \, \in \, \{ \, t,c,n,e,r,v \, \}} \ \exp \ ( \, - \, \beta \, E_{ji_j}) \ \right]

Grâce à l'indépendance des modes, on peut permuter la somme et le produit :

Z \ = \ \prod_{j \, \in \, \{ \, t,c,n,e,r,v \, \}} \ \left[ \ \sum_{ i_j \ \mathrm{niveau \ interne \ a} \ j} \ \exp \ ( \, - \, \beta \, E_{ji_j}) \ \right]

Ainsi, pour chaque mode, on peut définir une fonction de partition associée, et on obtient la fonction de partition totale comme produit de ces fonctions de partition de modes :

Z \ = \ Z_t \ \times \ Z_c \ \times \ Z_n \ \times \ Z_e \ \times \ Z_r \ \times \ Z_v

Des expressions simples en sont dérivées pour chacun des modes relatifs à des propriétés moléculaires, telles que les fréquences rotationnelles et vibrationnelles. Les expressions des diverses fonctions de partitions sont données dans la table suivante :

Type Formule
nucléaire Z \ = \ 1 \quad (T< 10ˆ8)
électronique Z_0 \ = \ \exp(k_BTD_e+W1 \exp(-\theta_{e1} / T)+ ...)\,
vibrationnel Z_v \ = \ \prod{\exp({ -\theta_{vj} /2T})\over{1 -\exp({ -\theta_{vj} /T})}}
rotationnel (linéaire) Z_r \ = \ { T \over \sigma } \theta_R
rotationnel (non linéaire) Z_r \ = \ { T \over \sigma }\sqrt{\pi Tˆ3 \over \theta_1 \theta_2\theta_3}
translation Z_t \ = \ {(2 \pi mk_B T)ˆ{3/2} \over {hˆ3}}
configuration (gaz parfait) Z_c \ = \ V\,

Ces équations peuvent être combinées avec celles de la première table pour déterminer la contribution d'un mode énergétique spécifique aux propriétés thermodynamiques. A titre d'exemple, la «pression de rotation» peut être déterminée de cette manière. La pression totale peut être trouvée en sommant les contributions de pression de l'ensemble des modes individuels :

 p \ = \ p_t \ + \ p_c \ + \ p_n \ + \ p_e \ + \ p_r \ + \ p_v

Ensemble grand-canonique

Article détaillé : Ensemble grand-canonique.

Si le dispositif est ouvert (c'est-à-dire s'il permet l'échange de particules avec l'extérieur), nous devons introduire les potentiels chimiques et remplacer la fonction de partition canonique par la fonction de partition grand-canonique :

 \Xi (V,T,\mu)=\sum_i \exp \left(\beta[\sum_{j=1} ˆn \mu_j N_{ij}-E_i]\right)
\,

Nij est le nombre de particules de la j-ème espèce dans l'i-ème configuration. Il peut arriver aussi que nous ayons d'autres variables à ajouter à la fonction de partition, une variable par quantité conservée. La majorité d'entre elles, cependant, peuvent sans problème être interprétées comme des potentiels chimiques. Dans la majorité des problèmes de matière condensée, les effets sont non relativistes et la masse est conservée. La masse est inversement reliée à la densité, qui est la variable conjuguée de la pression.

Dans le reste de l'article, nous ignorerons cette difficulté et supposerons que les potentiels chimiques ne changent rien. Examinons la totalité grand canonique.

Recalculons l'ensemble des expressions en utilisant la totalité grand-canonique. Le volume est fixé et ne figure pas dans ce traitement. Comme auparavant, j est l'indice des particules de la j-ème espèce et i est l'indice du i-ème micro-état :

 U=\sum_i {E_i \exp \left(-\beta[E_i-\sum_{j=1} \mu_j N_{ij}]\right)
\over \Xi}\,

  N_j=\sum_i {N_{ij} \exp \left(-\beta[E_i-\sum_{j=1} \mu_j N_{ij}]\right)
\over \Xi}\,
Nom Formule
Grand potentiel \Phi_G=-{\ln \Xi \over \beta}
énergie interne U=-\left({\partial \ln \Xi \over \partial \beta}\right)_{\mu}+ \sum {\mu_i \over \beta} \left({\partial \ln \Xi \over \partial \mu_i}\right)_{\beta}
nombre de particules N_i={1\over  \beta}\left({\partial \ln \Xi \over \partial \mu}\right)_{\beta}
entropie S=k_B\left(\ln  \Xi + \beta U- \beta \sum_i \mu_i N_i\right)\,
énergie libre de Helmholtz F=\Phi_G+\sum_i \mu_i N_i=-{ \ln \Xi \over  \beta}+ \sum {\mu_i \over \beta} \left({\partial \ln \Xi \over \partial \mu_i}\right)_{\beta}  \,

Article annexes

Physique statistique d'équilibre

Physique statistique hors d'équilibre

Bibliothèque virtuelle

Bibliographie

Vulgarisation

Ouvrages de référence

Initiation à la physique statistique

Niveau second cycle universitaire

Aspects historiques

Notes

  1. Joseph Willard Gibbs, Principes élémentaires de mécanique statistique, Hermann (1998), ISBN 270566341X. Lire aussi : Luis Navarro, Gibbs, Einstein and the Foundations of Statistical Mechanics, Archive for History of Exact Sciences 53 147–180 (1998).
  2. Domokos Szasz, Botzmann's ergodic hypothesis, a conjecture for centuries ?, Studia Scientiarium Mathematicarum, Hungarica (Budapest ) 31 (1996) 299-322.
  3. Cf. Frederic Reif ; Physique Statistique, Cours de Physique de Berkeley (vol. 5), Armand Colin (1972), paragraphe 3.5
  4. Sont exclus par exemple certains dispositifs de spins où l'énergie cinétique des particules serait ignorée. Cf. Reif, op. cit.
  5. Cf. Reif, op. cit.



Recherche sur Amazone (livres) :



Ce texte est issu de l'encyclopédie Wikipedia. Vous pouvez consulter sa version originale dans cette encyclopédie à l'adresse http://fr.wikipedia.org/wiki/Physique_statistique.
Voir la liste des contributeurs.
La version présentée ici à été extraite depuis cette source le 07/04/2010.
Ce texte est disponible sous les termes de la licence de documentation libre GNU (GFDL).
La liste des définitions proposées en tête de page est une sélection parmi les résultats obtenus à l'aide de la commande "define:" de Google.
Cette page fait partie du projet Wikibis.
Accueil Recherche Aller au contenuDébut page
ContactContact ImprimerImprimer liens d'évitement et raccourcis clavierAccessibilité
Aller au menu