Entropie

En thermodynamique, l'entropie est une fonction d'état introduite en 1865 par Rudolf Clausius dans le cadre du deuxième principe, selon les travaux de Sadi Carnot.



Catégories :

Thermodynamique - Physique statistique - Statistiques - Thermochimie - Physique mathématique - Théorie de l'information - Grandeur physique - Système

Recherche sur Google Images :


Source image : utinam.cnrs.fr
Cette image est un résultat de recherche de Google Image. Elle est peut-être réduite par rapport à l'originale et/ou protégée par des droits d'auteur.

Définitions :

  • L'entropie d'un dispositif est une mesure de son désordre. C'est le nombre de configurations microscopiques qui vont laisser inchangé... (source : nrumiano.free)

En thermodynamique, l'entropie est une fonction d'état introduite en 1865[1] par Rudolf Clausius dans le cadre du deuxième principe, selon les travaux de Sadi Carnot[2]. Clausius a montré que le rapport (où Q est la quantité de chaleur échangée par un système à la température T) correspond, en thermodynamique classique, à la variation d'une fonction d'état qu'il a nommée entropie, S et dont l'unité est le joule par kelvin (J/K).

La thermodynamique statistique a ensuite apporté un nouvel éclairage à cette grandeur physique abstraite : elle peut être interprétée comme la mesure du degré de désordre d'un dispositif au niveau microscopique. Plus l'entropie du dispositif est élevée, moins ses éléments sont ordonnés, liés entre eux, capables de produire des effets mécaniques, et plus grande est la part de l'énergie inutilisée pour l'obtention d'un travail ; c'est-à-dire gaspillée de façon incohérente. Ludwig Boltzmann a exprimé l'entropie statistique selon le nombre d'états microscopiques Ω définissant l'état d'équilibre d'un dispositif donné au niveau macroscopique : formule de Boltzmann.

Cette nouvelle définition de l'entropie n'est pas contradictoire avec celle de Clausius. Les deux expressions de l'entropie résultent simplement de deux points de vue différents, selon qu'on considère le système thermodynamique au niveau macroscopique ou au niveau microscopique.

Dans une période récente, le concept d'entropie a été généralisé, et étendu à de nombreux domaines, tels que par exemple :

L'entropie selon la thermodynamique classique

La non-conservation de l'entropie

La difficulté à donner une définition intuitive de l'entropie d'un dispositif vient du fait qu'elle ne se conserve pas. Elle peut augmenter spontanément lors d'une transformation irréversible. En effet, selon le deuxième principe de la thermodynamique, l'entropie d'un dispositif isolé ne peut pas diminuer, elle augmente ou elle reste constante si la transformation est réversible.

Les transformations réversibles

Une transformation affectant un système thermodynamique est dite réversible si elle est quasistatique et s'effectue sans frottement entraînant un phénomène dissipatif de chaleur. Dans ces conditions, la transformation peut être reconnue comme étant constituée d'une succession d'états d'équilibre. Si on inverse le sens de la contrainte du milieu extérieur, responsable de la transformation, on repasse alors par les mêmes états d'équilibre dans la mesure où il n'y a pas eu de phénomènes dissipatifs. On peut alors modéliser la transformation et décrire idéalement, à chaque instant, l'état d'équilibre du dispositif.

La transformation réversible est par conséquent un modèle parfait (à rapprocher du modèle parfait du gaz parfait), dont on peut se rapprocher dans les transformations réelles, en s'assurant que la transformation soit particulièrement lente, le déséquilibre des variables d'état particulièrement faible et en minimisant les frottements.

Remarque : Une transformation réversible qui serait filmée pourrait être projetée à l'envers (c'est-à-dire de la fin au début) sans que la séquence paraisse anormale. C'est par exemple le cas, en première approximation, pour une balle en caoutchouc qui rebondit une fois sur un sol dur, il serait complexe de distinguer si le film est projeté à l'endroit ou à l'envers. En toute rigueur cela est faux car les frottements lors du choc et les frottements de l'air aussi faibles soient-ils rendent le processus irréversible et après plusieurs rebonds, la balle s'arrêterait. Le film à l'envers serait alors choquant puisque la balle rebondirait de plus en plus haut !

À l'inverse, une transformation foncièrement irréversible ne permet pas de faire ce constat, comme dans le cas d'un œuf s'écrasant sur le même sol dur : projeté à l'envers on verrait l'œuf brisé se reconstituer puis monter en l'air. On trouve dans cette interprétation une manifestation de la flèche du temps.

Les transformations irréversibles

Les transformations réelles sont irréversibles à cause de phénomènes dissipatifs. Le dispositif ne peut jamais spontanément revenir en arrière. L'énergie perdue par le dispositif sous forme de chaleur contribue à l'augmentation du désordre global. Or le désordre est mesuré par une fonction d'état nommée entropie : S, introduite par le deuxième principe de la thermodynamique.

Tandis que le premier principe est un principe de conservation de l'énergie, le deuxième principe est un principe d'évolution. Il stipule que toute transformation réelle s'effectue avec augmentation du désordre global (système + milieu extérieur)  ; le désordre étant mesuré par l'entropie. On dit toujours qu'il y a création d'entropie.

L'expression moderne du deuxième principe formalise cette création d'entropie :

<img class=

L'entropie comme monnaie d'échange

La thermodynamique classique définit l'entropie comme une grandeur extensive, ce qui veut dire qu'on obtient l'entropie d'un dispositif en faisant la somme des entropies de ses parties constituantes (par contraste, la température n'est pas une grandeur extensive parce que la température d'un dispositif n'est pas la somme des températures de ses parties).

Tant que les transformations sont réversibles, on peut raisonner sur l'entropie comme une grandeur conservée. Comme elle peut passer d'un dispositif à un autre ou vers le milieu extérieur, elle est une sorte de monnaie d'échange. Tout dispositif qui gagne de l'entropie la prend à un autre ou au milieu extérieur. L'unité d'entropie, le joule par kelvin (symbole : J·K-1) correspond à la quantité d'entropie gagnée par un dispositif qui reçoit 1 joule de chaleur par kelvin. De façon générale, si un dispositif reçoit \delta Q∼ joules de chaleur lors d'une transformation illimitétésimale réversible à la température T, alors son entropie augmente de :

\mathrm dS_{syst} = \frac{\delta Q_{r\acute{e}v}}{T}∼.

Cela devient, pour une transformation réversible effectuée à la température T constante :

\Delta S_{syst} = \frac{Q_{r\acute{e}v}}{T}∼.

L'entropie est une fonction d'état. Cela veut dire que sa valeur est déterminée dès que l'état d'équilibre du dispositif est établi. Comme l'entropie d'un corps pur, à la température de zéro kelvin, est nulle car le dispositif est idéalement ordonné, on peut construire une échelle absolue d'entropie à l'inverse des autres fonctions d'état se déduisant de l'énergie interne qui, elle , n'est pas calculable.

Si la transformation est irréversible, la chaleur mise en jeu devient Q_{irr\acute{e}v}∼ car la chaleur dépend du chemin suivi. Qui plus est , on a vu auparavant qu'il y avait création d'entropie et que le bilan entropique est positif :

<img class= est reçue par le milieu extérieur et par conséquent son signe s'inverse - Q_{irr\acute{e}v}∼, selon la règle des signes.

La variation de l'entropie du milieu extérieur est alors égale à : \Delta S_{ext} = - \frac{Q_{irr\acute{e}v}}{T}∼.

Le bilan entropique devient : <img class=Conséquence de l'inégalité de Clausius sur la quantité de travail apporté par un dispositif

Considérons une transformation effectuée à la température T, qui fait passer un système thermodynamique d'un état d'origine A à un état final B d'équilibre.

La variation d'entropie du dispositif, associée à cette transformation, peut s'écrire :

\Delta S_{syst} = S(B) - S(A)∼

On peut procéder de façon réversible ou bien de façon irréversible. Si la variation de la fonction d'état entropie sera la même, il n'en est pas de même pour la chaleur Q et le travail W qui dépendent du chemin suivi et seront par conséquent différents : Q_{r\acute{e}v} \neq Q_{irr\acute{e}v}∼ et W_{r\acute{e}v} \neq W_{irr\acute{e}v}∼.

Appliquons le deuxième principe :

  • \Delta S_{syst} = S(B) - S(A) = \frac{Q_{r\acute{e}v}}{T}∼
  • <img class=énergie interne U :

    \Delta U_{syst} = U(B) - U(A) = W_{r\acute{e}v} + Q_{r\acute{e}v} = W_{irr\acute{e}v} + Q_{irr\acute{e}v}∼

    On déduit que W_{r\acute{e}v} < W_{irr\acute{e}v}∼.

    Pour un dispositif (moteur thermique, moteur électrique…) dont la fonction est d'apporter du travail au milieu extérieur, le travail apporté est compté négativement selon la règle des signes : W < 0

    Donc ce qui compte c'est la valeur absolue du travail apporté et l'inégalité s'inverse :

    <img class=

Définition de l'entropie selon la physique statistique

La matière est constituée de particules (molécules, atomes, électrons... ) en perpétuel mouvement (agitation thermique) exerçant les unes sur les autres une force attractive (interactions) dont l'intensité décroit quand leur distance mutuelle augmente. Dans un gaz cette distance est assez grande, les interactions sont par conséquent faibles, de sorte que les particules sont libres de se déplacer dans tout le volume qui leur est offert, mais subissent de nombreuses collisions au cours desquelles leur énergie fluctue. Dans un liquide les distances mutuelles sont plus petites et les molécules sont moins libres : elles peuvent se déplacer dans tout le volume du liquide mais ne peuvent pas en sortir. Dans un solide chaque molécule est liée élastiquement à ses voisines et vibre autour d'une position moyenne fixe. Il en résulte que, dans l'ensemble des cas, la position et l'énergie de chaque particule sont aléatoires.

La somme des énergies de l'ensemble des particules d'un système thermodynamique donné se nomme l'énergie interne U du dispositif. Quand le dispositif est isolé, c'est-à-dire qu'il n'échange ni matière ni énergie avec l'extérieur, on dit que ce dispositif se trouve dans l'ensemble microcanonique. Son état macroscopique est caractérisé par son volume V et son énergie interne U. Cependant les particules peuvent être disposées dans le volume d'un particulièrement grand nombre de façons différentes; de même l'énergie interne peut être répartie sur les particules d'un particulièrement grand nombre de façons différentes. Chaque façon de placer les molécules dans le volume et de leur distribuer l'énergie interne se nomme une configuration microscopique de l'état macroscopique caractérisé par le volume V et l'énergie interne U. Le nombre de particules étant, dans un dispositif macroscopique, immensément grand (de l'ordre de 1023) le nombre Ω (U, V) de ces configurations microscopiques est lui-même immensément grand. On définit alors l'entropie S (fonction de U et V) par :

{S=k_B\cdot\ln(\Omega)}

kB = 1, 381.10 − 23J. K − 1 se nomme la constante de Boltzmann.

Cette relation a été proposée par Ludwig Boltzmann vers les années 1870 tandis que la notion d'états microscopiques était toujours particulièrement spéculative, parce que les atomes et leurs propriétés quantiques étaient mal connus. Il a été en butte à la moquerie des scientifiques de son époque ce qui l'a probablement conduit au suicide. Actuellement il est reconnu comme le père fondateur de la thermodynamique statistique. Sur sa tombe à Vienne est gravée sa formule à l'origine du concept de l'entropie.

Un dispositif évolue en permanence d'une configuration microscopique à une autre, jusqu'à ce qu'il atteigne l'équilibre. On admet alors le principe essentiel suivant :

Étant donné un système isolé en équilibre, il se trouve avec probabilités identiques dans chacun de ses micro-états accessibles.

Cet axiome est l'énoncé le plus profond du deuxième principe de la thermodynamique.

L'entropie jouit de la propriété d'additivité (on dit que c'est une grandeur extensive)  : l'entropie d'un dispositif à l'équilibre est égale à la somme des entropies de chacune de ses parties. Par exemple si on sépare le dispositif en deux parties, d'entropies respectives S1 et S2 et ayant pour chacune des parties Ω1 et Ω2 configurations, l'entropie globale S est égale à S1 + S2. D'où :

S = S_1 + S_2 = k_B \cdot \ln (\Omega_1) + k_B \cdot \ln ( \Omega_2 )= k_B \cdot \ln ( \Omega_1 \Omega_2) = k_B \cdot \ln ( \Omega)

Il s'ensuit que le nombre de configurations du dispositif Ω = Ω1Ω2.

Équilibre et maximum d'entropie

L'axiome précédent peut être formulé d'une autre manière :

Un système isolé atteint l'équilibre quand son entropie devient maximale.

Ces deux manières de formuler le principe essentiel de la physique statistique sont équivalentes. La notion d'équilibre est liée à celle de dispositif soumis à des contraintes extérieures. La définition du dispositif est particulièrement importante, et on considère ici, que le dispositif se trouve dans l'ensemble microcanonique.

Exemples de compréhension

Il est courant de dire que l'entropie est une mesure du désordre. En effet, considérons par exemple un jeu de 52 cartes et posons-les toutes du même côté (ordre parfait)  ; cet état macroscopique ne peut être réalisé que d'une seule façon : Ω = 1. Retournons 1 carte, ce qui est le début du désordre ; mais il y a Ω = 52 façons de réaliser l'état macroscopique "une seule carte retournée". Le désordre est maximum lorsque 26 cartes sont d'un côté et 26 cartes de l'autre côté ; le nombre de configurations microscopiques de cet état de désordre maximum est alors Ω = 4, 96.1014 ! Dans cet exemple, le nombre de configurations microscopiques (donc l'entropie) est bien une mesure du désordre. Mais il faut être prudent dans l'utilisation de cette notion de désordre, qui est fréquemment subjective, et lui préférer le nombre Ω de configurations qui est objectif (c'est un nombre).

Reprenons le jeu de 52 cartes et supposons qu'on les jette en l'air de telle sorte que chaque carte retombe d'un côté ou de l'autre avec la même probabilité. Si on redébute l'opération la plupart de fois, les valeurs numériques précédentes montrent que le désordre maximum apparaîtra bien plus fréquemment que toute autre situation.

Considérons désormais un gaz dans un récipient de volume V. Il comporte non pas 52 molécules mais de l'ordre de 1023. Parmi l'ensemble des façons envisageables de ranger ces molécules, il y en a un certain nombre qui laissent la moitié du volume vide (ce qui correspond à l'ensemble des cartes du même côté) mais un nombre immensément plus grand pour lesquelles elles sont uniformément réparties dans tout le volume. Comme toutes ces configurations microscopiques sont équiprobables, la répartition uniforme est réalisée immensément plus fréquemment que toute autre situation, au point qu'elle apparaît macroscopiquement comme un équilibre stationnaire; et ceci simplement parce que le nombre de configurations microscopiques, et par conséquent l'entropie, qui lui correspondent ont leur valeur maximale. L'équilibre d'un dispositif thermodynamique se produit lorsque son entropie a la valeur maximale compatible avec les contraintes auxquelles il est soumis (ici la contrainte est le volume).

Considérons toujours le jeu de 52 cartes. On les ordonne en les rangeant par ordre décroissant de valeur, de l'as au 2 dans chaque couleur ; les couleurs étant rangées dans l'ordre suivant : trèfle, carreau, cœur et pique. Avec cette contrainte définissant l'ordre parfait, il n'existe qu'une seule configuration ordonnée : Ω (ordonnée) = 1. L'entropie définie selon Boltzmann serait alors égale à :

S = k Ln Ω (ordonnée) = 0 (le dispositif est idéalement ordonné)

Combien y a-t-il d'arrangements envisageables des cartes dans le jeu, c'est-à-dire de configurations ?

Ω = factorielle de 52 = 52 ! = 8.1067

On constate tandis que les configurations désordonnées sont extrêmement majoritaires comparé à la configuration ordonnée.

Supposons à présent qu'on fasse évoluer le dispositif ordonné en battant le jeu l'ensemble des secondes. Existe-t-il une chance de revenir à l'état d'origine ordonné ?

Toutes les configurations ont la même probabilité et il y en a 8.1067. Supposons que chaque configuration existe pendant 1 seconde, il faudrait battre le jeu pendant 8.1067 s, soit 2, 5.1051 milliards d'années pour avoir peut-être une chance de revenir à l'état ordonné. On peut par conséquent conclure avec certitude, que cette probabilité est quasi-nulle.

Réfléchissons désormais sur une mole de gaz parfait dans les conditions normales de température et de pression. Le nombre de particules NA = 6, 022.1023 est énorme. À l'inverse du jeu précédent où chaque carte est unique et est définie par un seul paramètre, chaque particule de gaz est définie par 3 paramètres de position spatiale et un paramètre d'énergie (agitation thermique). Le nombre de configurations ou complexions est faramineux. Néanmoins, grâce à la thermodynamique statistique, il a été envisageable de le calculer dans le cas d'un gaz parfait pris dans les conditions normales (volume molaire de 22, 4 L)  :

\Omega = 10ˆ{5ˆ{24}} configurations !!!

De plus, il faut remarquer qu'avec l'agitation thermique, le dispositif est en perpétuel changement. Bien bien entendu les configurations désordonnées sont les plus nombreuses.

Ce sont ces configurations désordonnées qui occupent la majorité du temps et définissent l'état d'équilibre du dispositif à l'échelle macroscopique.

On pourrait faire la comparaison avec un tableau post-impressioniste de la période pointilliste (voir Seurat, Signac). Lorsque on s'approche du tableau, on devine l'ensemble des différents points de couleur mais lorsque on s'éloigne suffisamment on a une vision d'ensemble qui est beaucoup influencée par les points de couleur les plus nombreux.

L'application de la formule de Boltzmann sert à ramener la valeur de l'entropie à notre échelle :

 S = k.Ln(\Omega) = k.Ln(10ˆ{5ˆ{24}})

Constante de Boltzmann k = R/NA = 1, 381.10-23 J. K-1

S = 159 J. K-1. C'est l'entropie d'une mole de gaz parfait dans les conditions normales.

A zéro Kelvin, l'agitation thermique s'arrête, le gaz se trouve alors dans l'état essentiel de plus basse énergie. Deux cas sont envisageables :

Remarques d'ordre général

Autrement étonnant est le concept entropie. Pour le même dispositif isolé, l'entropie, dans le meilleur des cas, restera constante, mais en dehors de ce cas particulièrement théorique des transformations réversibles, elle ne fera que croître indéfiniment.

Une diminution d'entropie pour un dispositif est néanmoins envisageable si l'augmentation de l'entropie du milieu extérieur fait plus que compenser la diminution d'entropie du dispositif. Le bilan reste conforme à la seconde loi de la thermodynamique : une augmentation globale de l'entropie assimilée à une création d'entropie.
Démontrons-le dans le cas d'un dispositif composé d'un vase contenant de l'eau liquide qu'on place à l'air libre à -10 °C soit 263 K. L'eau gèle à °C (273 K) et tant qu'il y a cœxistence de glace et d'eau liquide cette température de changement d'état reste constante et égale à 273 K. La chaleur de solidification de l'eau : L (solid) est négative (inverse de la chaleur de fusion qui elle est positive) mais aussi l'entropie de solidification ΔS (syst) = L (solid) / 273 < 0. Par contre, la chaleur est reçue par le milieu extérieur et change de signe (- L (solid) )  ; milieu extérieur dont la température n'est pas affectée par l'échange avec le dispositif bien plus petit (notion de source de chaleur). Elle reste constante et égale à 263 K. La variation d'entropie du milieu extérieur est alors égale à :

ΔS (ext) = - L (solid) / 263 > 0.

Calculons alors le bilan entropique :

ΔS (syst) + ΔS (ext) = (L (solid) / 273) + (-L (solid) / 263) = L (solid) (1/273 - 1/263) .

Comme L (solid) < 0, il s'ensuit que le bilan est positif et l'entropie créée sera d'autant plus grande que l'écart des températures sera grand mais aussi l'irréversibilité qui va de pair. Si la température du milieu extérieur était particulièrement proche de 273 K à -ε près, on se rapprocherait d'une transformation réversible et le bilan entropique serait proche de zéro. En toute rigueur le changement de température entre le dispositif et le milieu extérieur n'est pas brutal. Au voisinage de la paroi séparant le dispositif du milieu extérieur la température fluctue de façon continue entre 273 K et 263 K. On dit qu'il y a un gradient de température ; phénomène intimement associé à la notion d'irréversibilité.

Étymologie

Le mot entropie a été découvert par Clausius qui justifie son choix dans Sur diverses formes des équations principales de la théorie mécanique de la chaleur (1865)  :

Je préfère emprunter aux langues anciennes les noms des quantités scientifiques importantes, afin qu'ils puissent rester les mêmes dans l'ensemble des langues vivantes ; je proposerai par conséquent d'appeler la quantité S l'entropie du corps, selon le mot grec η τροπη une transformation. C'est à dessein que j'ai constitué ce mot entropie, de manière qu'il se rapprochedans la mesure du possible du mot énergie ; car ces deux quantités ont une telle ressemblance dans leur signification physique qu'une ressemblance d'appellation m'a paru utile. (cité dans Dictionnaire d'histoire et de philosophie des sciences de Dominique Lecourt, chez PUF, 1999).

Pour en savoir plus

Approche thermodynamique de Carathéodory (1908)

Dès la fin du XIXe siècle, la thermodynamique développée originellement pour les machines thermiques fut appliquée avec succès aux phénomènes électriques et magnétiques, aux changements d'états, ainsi qu'aux réactions chimiques. C'est pourquoi l'introduction respectant les traditions de l'entropie basée sur l'étude des machines thermiques cycliques fut critiquée au début du XXe siècle pour son manque de généralité, surtout par Born. Stimulé par cette critique, Carathéodory a remplacé en 1908 cette approche par un traitement purement axiomatique basé sur les propriétés d'intégrabilité des formes différentielles de Pfaff.

En prenant comme postulat de sa thermodynamique d'équilibre qu'il existe des états inaccessibles par voie adiabatique dans le voisinage de tout état d'équilibre donné, Carathéodory[3] démontre l'existence (locale[4]) d'une fonction entropie. En termes techniques, Carathéodory démontre que la forme différentielle «tranfert thermique élémentaire» δQ admet un facteur intégrant 1/T, i. e. que :


\frac{1}{T} \ \delta Q \ = \ dS

est une différentielle exacte, propriété des fonctions d'état.

Pour voir le lien avec le postulat d'origine, on remarque que l'ensemble des états accessibles par voie adiabatique Q = 0) à partir d'un état d'origine Ei sont alors obligatoirement localisés sur la surface isentropique S=S (Ei) =cte. Il existe par conséquent des états inaccessibles par voie adiabatique, à savoir tous ceux qui ne sont pas localisés sur cette surface. Le théorème de Carathéodory établit la réciproque non-triviale : si il existe des états inaccessibles par voie adiabatique, alors il existe un facteur intégrant, et par conséquent une fonction d'état entropie (Cf. livre de Rocard).

Cette présentation axiomatique reçut à l'époque un accueil enthousiaste de Born, Landé, Chandrasekhar, et Buchdahl, mais son orientation mathématique a rebuté nombre de physiciens, et elle est restée assez confidentielle jusqu'à ce qu'elle soit simplifiée à la fin des années 1950[5] par L. A. Turner, F. W. Sears, et Peter T. Landsberg[6].

Approche thermodynamique de Lieb-Yngvason (1997)

En 1997, Lieb et Yngvason ont proposé[7] une nouvelle dérivation de l'existence de l'entropie en thermodynamique d'équilibre qui ne fait appel ni aux machines thermiques, ni à la température, ni même aux concepts plus primitifs de «chaud» et de «froid» (et toujours moins à la physique statistique). Leur approche est basée sur la notion d'états d'équilibres «accessibles par voie adiabatique» (i. e. dans l'esprit de Carathéodory), mais où leur notion d'accessibilité adiabatique est définie - dans l'esprit de Planck (1926) - de façon purement mécanique à travers le déplacement d'un poids, sans référence au concept de transfert thermique. Dans cette approche, la température apparait à la fin comme une dérivée partielle de l'entropie, une fois que la différentiabilité de cette fonction a été démontrée.

Voir aussi

Bibliothèque virtuelle

Indice d'entropie (sciences sociales)  : Apparicio & al ; [1]

Bibliographie

Vulgarisation

Initiation (premier cycle universitaire)

Ouvrages de référence

Aspects historiques

Notes

  1. chapitre 1 du Lev Landau et Evguéni Lifchitz, Physique théorique, tome 5 : Physique statistique, éd. MIR, Moscou [détail des éditions]
  2. Sadi Carnot ; Réflexions sur la puissance motrice du feu et sur les machines propres à développer cette puissance, (1824). Réédition Jacques Gabay (2005), ISBN 2-87647-069-1.
  3. Constantin Carathéodory, Untersuchungen über die Grundlagen der Thermodynamik, Mathematische Annalen 67 (1909), 355-86, reproduit dans : Gesammelte Mathematische Schriften (Munich, 1955), pp. 131-66.
  4. Sur ce point, lire e. g.  : Jos Uffink ; Bluff your way in the second law of thermodynamics, Studies in History and Philosophy of Modern Physics (2000). ArXiv : cond-mat/0005327.
  5. On trouve cette approche simplifiée exposée par exemple dans : Peter T. Landsberg ; Thermodynamics, John Wiley & Sons (1961), et : I. P. Bazarov, Thermodynamics, Oxford University Press (1964).
  6. Peter T Landsberg ; On suggested simplifications of Caratheodory's thermodynamics, Phys. Status Solidi 1 (1961), 120 ; Peter T Landsberg ; A deduction of Caratheodory's principle from Kelvin's principle, Nature 201 (1964), 485 ; Peter T Landsberg ; The Born centenary : Remarks about classical thermodynamics, Am J Phys 51 (1983), 842. H. Meyer-Ortmanns, Peter T Landsberg, S Abe, A. K. Rajagopal & T. Yamano ; A note on the limitations of standard thermodynamics, Annalen der Physik 11 (2002), 457.
  7. Elliott H. Lieb & Jakob Yngvason ; A fresh look at entropy and the Second Law of Thermodynamics, Physics Today 53 (2000), 32-37. ArXiv : math-ph/0003028. Elliott H. Lieb & Jakob Yngvason ; The Physics and Mathematics of the Second Law of Thermodynamics, Physics Report 310 (1999), 1-96. ArXiv : cond-mat/9708200. Elliott H. Lieb & Jakob Yngvason ; A Guide to Entropy and the Second Law of Thermodynamics, Notices of the American Mathematical Society 45 (1998), 571-581. ArXiv : math-ph/9805005.



Recherche sur Amazone (livres) :



Ce texte est issu de l'encyclopédie Wikipedia. Vous pouvez consulter sa version originale dans cette encyclopédie à l'adresse http://fr.wikipedia.org/wiki/Entropie.
Voir la liste des contributeurs.
La version présentée ici à été extraite depuis cette source le 07/04/2010.
Ce texte est disponible sous les termes de la licence de documentation libre GNU (GFDL).
La liste des définitions proposées en tête de page est une sélection parmi les résultats obtenus à l'aide de la commande "define:" de Google.
Cette page fait partie du projet Wikibis.
Accueil Recherche Aller au contenuDébut page
ContactContact ImprimerImprimer liens d'évitement et raccourcis clavierAccessibilité
Aller au menu