Renormalisation

En théorie quantique des champs, en mécanique statistique des champs, dans la théorie des structures géométriques autosemblables, une renormalisation se rapporte à un ensemble de techniques utilisées pour prendre la limite du continu.



Catégories :

Physique statistique - Statistiques - Physique quantique - Grandeur physique - Grandeur sans dimension - Ordre de grandeur - Histoire des sciences - Mécanique quantique - Théorie de jauge

Recherche sur Google Images :


Source image : futura-sciences.com
Cette image est un résultat de recherche de Google Image. Elle est peut-être réduite par rapport à l'originale et/ou protégée par des droits d'auteur.

Page(s) en rapport avec ce sujet :

  • ... Le nouveau statut de la renormalisation est développé dans ce qu'on.... Et bien c'est ce qui est arrivé au monde des particules élementaires. ne... Le groupe de renormalisation est juste un outil qui permet d'écrire une théorie à une... (source : forums.futura-sciences)
  • la densité de populations est le nombre de particules par unité de longueur (pour..... Réellement, la théorie de la renormalisation apparaît en Théorie Quantique des ... renormalisation est équivaut à un changement de paramètres.... (source : hal.archives-ouvertes)

En théorie quantique des champs (ou QFT), en mécanique statistique des champs, dans la théorie des structures géométriques autosemblables, une renormalisation se rapporte à un ensemble de techniques utilisées pour prendre la limite du continu.

Lorsque on décrit l'espace et le temps comme un continuum, certaines constructions statistiques et quantiques deviennent indéfinies. Pour les définir, il faut prendre des précautions pour passer à la limite.

La renormalisation détermine la façon de relier les paramètres de la théorie lorsque ces paramètres à grande échelle changent de leur valeur à petite échelle. La renormalisation a été originellement développée en électrodynamique quantique (QED), en vue d'interpréter des intégrales divergentes de la théorie des perturbations. Au début, elle est reconnue comme une procédure suspecte et provisoire par certains de ses auteurs. Finalement la renormalisation a été incorporée comme un outil important et logiquement cohérent dans plusieurs domaines de physique et de mathématiques.

L'idée majeure de la renormalisation est de corriger le lagrangien original d'une théorie quantique des champs par une série illimitée de contre-termes, correspondant aux graphes de Feynman qui codent le développement perturbatif de la théorie. Dans la procédure de renormalisation perturbative, on introduit un contre-terme dans le lagrangien d'origine pour chaque divergence de graphe de Feynman. Occasionnellemen, l'ensemble des contre-termes nécessaires peuvent être obtenus par modification des seuls paramètres du lagrangien d'origine. Il est alors envisageable de modifier ces paramètres, en les remplaçant par des séries de contre-termes divergents. Les paramètres initiaux ne sont pas observables, par opposition aux quantités physiques, qui sont finies, et observables. Un des problèmes de la procédure de renormalisation est le traitement systématique dans les graphes à plusieurs boucles des divergences liées à des boucles croisées ou incluses les unes dans les autres.

Auto-interactions en physique classique

Le problème des divergences est apparu dans un premier temps en électrodynamique classique des particules ponctuelles aux XIXe et début du XXe siècles.

La masse d'une particule chargée doit inclure la masse-énergie de son champ électrostatique. Supposons que la particule soit une sphère chargée de rayon re. L'énergie de ce champ est , en posant c=1 et ε0=1 :


m_\mathrm{em} = \int \operatorname{d}V  {1\over 2}Eˆ2 = \int_{r_e}ˆ\infty dr 4\pi rˆ2\frac{1}{2} \left( {q\over 4\pi rˆ2} \right) ˆ2 = {qˆ2 \over 8\pi r_e}

et elle devient illimitée lorsque re → 0, ce qui est bien entendu absurde (puisque cela impliquerait que la particule ponctuelle ne pourrait pas être accélérée, à cause de sa masse illimitée.

En passant, la valeur de re qui rend mem égal à la masse de l'électron est nommée le rayon classique de l'électron, et se trouve α fois la longueur d'onde de Compton de l'électron. En remettant l'ensemble des multiples de c et de ε0, on peut écrire :


r_e = {qˆ2 \over 4\pi\varepsilon_0 m_e cˆ2} \approx {1\over 137}{\hbar\over m_e c} \approx 2?\times 10ˆ{-15} \, \mathrm{m}.

Fig. 1 - Renormalisation en QED : la simple interaction électron-photon qui définit la charge de l'électron à un point de renormalisation se révèle à un autre point composée de plusieurs interactions plus compliquées.

La masse totale effective d'une particule chargée sphérique inclut – outre la masse calculée supra pour le champ électromagnétique – la masse nue de la particule chargée. Si on autorise cette dernière d'être négative, on peut envisager d'un passage cohérent à la limite ponctuelle. Ceci a été nommé renormalisation. Lorentz et (en) Abraham ont essayé de cette manière de mettre au point une théorie classique de l'électron. Ces travaux précoces ont inspiré des essais ultérieurs de régularisation en physique et la renormalisation en QFT.

Lorsque on calcule les interactions électromagnétiques de particules chargées, il est tentant d'ignorer la rétroaction du champ d'une particule sur elle-même. Mais cette rétroaction est indispensable pour expliquer le ralentissement de particules chargées qui rayonnent. Si on suppose l'électron ponctuel, la valeur de la rétroaction diverge, pour la même raison que la masse diverge, parce que le champ se comporte comme le carré inverse de la distance.

La théorie d'Abraham et Lorentz impliquait une «préaccélération» non causale. Dans certaines configurations, un électron commençait à se déplacer avant que la force ne soit appliquée. Ceci signalait que la limite ponctuelle n'était pas cohérente. Un corps étendu ne commencera à bouger que lorsque une force est appliquée sur un point au plus à sa surface.

Le problème s'est trouvé pire en principe classique des champs qu'en QFT, parce que dans cette dernière, à courte distance, une particule se trouve dans une position fluctuante, et on ne peut par conséquent la localiser mieux que dans une région de l'ordre de la longueur d'onde de Compton[1]. En QED, à faible couplage, la masse électromagnétique ne diverge que comme le logarithme du rayon de la particule.

Certains physiciens pensent que lorsque la constante de structure fine est énormément plus grande que l'unité, si bien que le rayon classique de l'électron est supérieur à la longueur d'onde de Compton, certains problèmes qui rendent la théorie classique incohérente reviennent en principe quantique. En effet les problèmes de la théorie classique apparaissent à des distances de l'ordre du rayon classique, mais ils sont dilués par le principe d'incertitude sur une échelle plus grande, celle de la longueur d'onde de Compton. Si la constante de structure fine est plus grande que l'unité, alors c'est la situation inverse qui prévaut : les problèmes de la théorie classique peuvent se manifester avant d'être dilués par les fluctuations quantiques.

Divergences en électrodynamique quantique

Fig. 2 – Un diagramme contribuant à la diffusion électron-électron en QED. La divergence UV de l'intégrale sur la boucle est logarithmique.
Fig. 3 – Polarisation du vide, ou écrantage des charges. Divergence UV logarithmique.
Fig. 4 – Diagramme de self-interaction en QED. Divergence UV logarithmique.

Lorsqu'il s mettent au point l'électrodynamique quantique (QED), Max Born, Werner Heisenberg, Pascual Jordan, et Paul Dirac découvrent que énormément d'intégrales du calcul perturbatif divergent.

Une façon de décrire les divergences est découverte à ce moment-là par Ernst Stueckelberg, peaufinée dans les années 1940 par Julian Schwinger, Richard Feynman, et Sin-Itiro Tomonaga, et finalement systématisée par Freeman Dyson. Les divergences apparaissent dans les calculs impliquant des diagrammes de Feynman comprenant des boucles fermées de particules virtuelles.

Bien que les particules virtuelles doivent obéir aux lois de conservation de l'énergie et de la quantité de mouvement, elles peuvent avoir n'importe quel quadri-moment (ou 4-moment), même si elles n'observent pas la relation entre énergie et quantité de mouvement de la relativité pour la masse de la particule donnée. Ceci veut dire que E² - p² peut être différent de m² – par exemple pour un photon cela peut être non-nul. Dans ce cas, la particule est dite «hors de sa couche de masse», ou tout simplement «hors couche». Lorsqu'il y a une boucle, les 4-moments des particules participant à la boucle ne sont pas seulement définis par ceux des particules incidentes et émergentes. On peut ajouter un 4-vecteur constant à l'ensemble des 4-moments des particules formant la boucle sans violer les conditions de conservation du 4-moment à chaque vertex de la boucle. Pour calculer le diagramme de Feynman, il faut intégrer sur l'ensemble des possibilités de choix des 4-moments de la boucle.

Ces intégrales sont quelquefois divergentes, car la fonction à intégrer ne décroît pas suffisament vite pour des 4-moments particulièrement grands. On nomme ceci une divergence ultraviolette (UV). Ces divergences UV peuvent être interprétées indifféremment comme provenant

On peut par conséquent considérer ces divergences comme des phénomènes à particulièrement courtes distances dans l'espace-temps, ce qui nous renvoie à la divergence de l'électrodynamique classique.

En QED, il y a précisément trois catégories de diagrammes divergents, illustrés sur les figures à l'ordre à une boucle :

  1. un électron émet des photons, puis un avec lequel il interagit avec un autre électron, et enfin réabsorbe les premiers photons émis. C'est la renormalisation de vertex (Fig. 2) ou (Fig. 1)
  2. un photon crée un ensemble de particules virtuelles : électron-positron et photons, qui se réannihilent en un photon. C'est la polarisation du vide (Fig. 3) .
  3. un électron émet des particules virtuelles et les réabsorbe. C'est la self-interaction de l'électron (Fig. 4) .

Ces trois divergences correspondent à trois paramètres de la théorie :

  1. la charge de l'électron
  2. la normalisation du champ du photon
  3. la masse de l'électron

Une autre classe de divergences, nommées divergences infrarouges, est due à la présence de particules de masse nulle, comme le photon en QED. Tout processus impliquant l'accélération de particules chargées se traduira par l'émission d'une onde de champ classique, qui comprend une illimitété de photons cohérents de grande longueur d'onde. La probabilité d'en émettre un nombre fini est nulle.

En QED, ce processus est bien compris. A titre d'exemple, à l'ordre à une boucle, la fonction de vertex (Fig. 2) a des divergences UV et IR. Au contraire de ce qui se passe pour la divergence UV, la divergence IR ne nécessite pas la renormalisation d'un paramètre de la théorie. On ne l'élimine pas directement de l'amplitude de diffusion, mais de la section efficace. On ajoute les contributions à cette section efficace du carré de l'amplitude, avec sa divergence IR, et celle du processus identique, où le photon virtuel de la boucle est émis de façon réelle (il n'y a par conséquent plus de boucle, mais une intégration sur les moments des photons réels). Ce calcul tient compte du processus de bremsstrahlung. Il n'y a pas de moyen physique de distinguer un photon d'énergie nulle circulant dans une boucle comme sur le diagramme de vertex, et un photon d'énergie nulle émis par bremsstrahlung. Par conséquent seule la somme des deux sections efficaces revêt une signification physique, ce qui se traduit par l'élimination des divergences IR.

Une divergence de boucle

Le diagramme de la Fig. 2 présente une des contributions à une boucle à la diffusion électron-électron en QED. L'électron représenté à gauche de la figure par une ligne polygonale arrive avec un 4-moment pµ, et ressort avec un 4-moment rµ. Il débute par émettre un premier photon virtuel, de 4-moment qµ, puis un second de 4-moment pµ-rµ pour transférer du 4-moment à l'autre électron. Finalement, il réabsorbe le premier photon émis. À chaque interaction, le 4-moment total est conservé, mais cela ne définit pas la valeur de qµ, qui peut prendre n'importe quelle valeur. On en déduit la valeur du 4-moment de chaque particule virtuelle dans la boucle. Il faut par conséquent envisager l'ensemble des possibilités, et intégrer sur tout le 4-espace de qµ. Les règles de QED définissent la valeur de la fonction à intégrer : couplage de l'électron au photon, terme à insérer pour chacune des lignes de particules virtuelles (ou propagateur). Ce terme devient illimité lorsque la particule virtuelle se trouve sur sa couche de masse, mais des prescriptions sont données pour interpréter l'intégrale en ces points.

L'amplitude relative à ce diagramme finit par conséquent par s'écrire :


-ieˆ3 \int {dˆ4 q \over (2\pi)ˆ4} \gammaˆ\mu {i (\gammaˆ\alpha (r-q)_\alpha + m) \over (r-q)ˆ2 - mˆ2 + i \varepsilon} \gammaˆ\rho {i (\gammaˆ\beta (p-q)_\beta + m) \over (p-q)ˆ2 - mˆ2 + i \varepsilon} \gammaˆ\nu {-i g_{\mu\nu} \over qˆ2 + i\varepsilon }

Les diverses matrices γµ qui apparaissent dans cette expression sont les mêmes que celles de l'équation de Dirac sous sa forme covariante ; elles sont reliées au spin de l'électron, et au fait que l'équation de Dirac décrit l'électron autant que le positron, d'où leur dimension 4 × 4. Les trois facteurs -e sont les constantes de couplage électrique des trois sommets de la boucle. Les symboles donnent une interprétation symbolique de la manière dont l'intégration doit se faire pour les particules sur leur couche de masse. La partie la plus intéressante pour notre propos est la dépendance en q de l'intégrand pour les grandes valeurs de q.

Le numérateur a une puissance 2 des composantes de q, alors que le dénominateur en a une de 6 (Pokorski 1987, p.  122). Le terme dominant est donc :


eˆ3 \frac{\gammaˆ\mu \gammaˆ\alpha \gammaˆ\rho \gammaˆ\beta \gamma_\mu} {(2\pi)ˆ4} \int dˆ4 q \frac{q_\alpha q_\beta }{(r-q)ˆ2 (p-q)ˆ2 qˆ2}

Comme on intègre sur un espace à 4 dimensions, l'intégrale diverge logarithmiquement, c'est-à-dire que si on limite les valeurs des composantes de q à une valeur Λ, l'intégrale se comporte comme log (Λ) , ce qui tend vers l'infini lorsque Λ → ∞. Des divergences identiques se produisent dans d'autres théories des champs.

Grandeurs nues et grandeurs renormalisées

La solution a par conséquent été de réaliser que les constantes originellement positionnées dans les formules de la théorie (comme par exemple l'expression du lagrangien), représentant formellement la charge électrique et la masse, mais aussi les normalisations des champs eux-mêmes, ne correspondent pas en réalité les grandeurs physiques mesurées en laboratoire. Telles quelles, elles sont des grandeurs nues, qui ne prennent pas en compte la contribution des boucles de particules virtuelles aux grandeurs physiques mesurées. Surtout, ces effets incluent la contrepartie quantique des rétroactions électromagnétiques, qui avaient posé tant de problèmes au théoriciens de l'électromagnétisme classique. Généralement, ces effets sont juste aussi divergents que les amplitudes calculées. Il faut par conséquent alors prendre des constantes nues divergentes pour obtenir des quantités mesurables finies.

Pour rendre compte de la réalité, alors, les formules doivent être réécrites en termes des quantités mesurables, renormalisées. La charge de l'électron, par exemple, doit être définie en termes d'une quantité mesurée dans des conditions cinématiques précises, le point de renormalisation, ou point de soustraction. Cette cinématique est généralement caractérisée par une certaine énergie, nommée échelle de renormalisation. Les parties du lagrangien laissées de côté, qui impliquent des parties des quantités nues, peuvent alors être réinterprétées comme des contre-termes, qui, dans les diagrammes divergents, compensent précisément les divergences non-souhaitées de l'ensemble des grandeurs calculées.

Renormalisation en QED

A titre d'exemple, dans le lagrangien de l'électrodynamique quantique (QED),

\mathcal{L}=\bar\psi_N\left[i\gamma_\mu (\partialˆ\mu + ie_NA_Nˆ\mu)-m_N\right]\psi_N -\frac{1}{4}F_{N\,\mu\nu}F_Nˆ{\mu\nu}

les champs ψN, AN, FN et la constante de couplage eN sont des grandeurs nues, d'où l'indice N. Par convention, les quantités nues sont écrites de manière à ce que les termes correspondants du lagrangien soient des multiples des termes renormalisés :

\left(\bar\psi m \psi\right)_N = Z_0 \, \bar\psi m \psi
\left(\bar\psi (\partialˆ\mu + ieAˆ\mu)\psi\right)_N = Z_1 \, \bar\psi(\partialˆ\mu + ieAˆ\mu)\psi
\left(F_{\mu\nu}Fˆ{\mu\nu}\right)_N = Z_3\, F_{\mu\nu}Fˆ{\mu\nu}.

Fig. 5 – Le vertex correspondant au contre-terme en Z1 qui compense la divergence du diagramme de la Fig. 2

Il se trouve que l'invariance de jauge, par l'intermédiaire de l'identité de Ward-Takahashi, implique qu'on peut renormaliser ensemble par la même constante les deux termes de la dérivée covariante (au sens de la théorie de jauge) , ce qui fait qu'on n'a besoin que de 3 constantes de renormalisation Zi tandis qu'on a à renormaliser 4 grandeurs : Aµ, ψ, m et e. Fµν étant une combinaison de dérivées de Aµ se renormalise de la même façon que ce dernier.

Un terme de ce lagrangien, par exemple, l'interaction électron-photon de la Fig. 2 peut alors s'écrire :

La constante physique -e, la charge de l'électron, peut alors être définie en termes de quelque expérience donnée ; nous posons l'échelle de renormalisation à l'énergie caractéristique de cette expérience, et le premier terme représente l'interaction que nous constatons au laboratoire (à quelques petites corrections finies, provenant de diagrammes de boucles fournissant des termes exotiques comme les corrections d'ordre plus haut au moment magnétique. Le reste est le contre-terme. Avec légèrement de chance, les parties divergentes des diagrammes contenant des boucles peuvent tous être décomposés en parties avec deux ou trois lignes sortantes, sous une forme algébrique qui peut être compensée par des contre-termes provenant de Z0, Z3 ou Z1. En QED, la chance se concrétise : la théorie est renormalisable (voir infra).

Le diagramme avec le contre-terme de vertex en Z1, positionné comme sur la Fig. 5 compense la divergence de la boucle de la Fig. 2.

La séparation des «termes nus» entre termes originaux et contre-termes a vu le jour avant l'invention du groupe de renormalisation due à Kenneth Wilson. Dans cette dernière optique, cette séparation n'a aucun caractère objectif, et est non-physique.

Variation des constantes

Pour minimiser la contribution des diagrammes de boucles à un calcul donné – et ainsi favoriser le calcul des grandeurs physiques – on choisit un point de renormalisation voisin des énergies et moments en jeu dans l'interaction qu'on veut calculer. Cependant, le point de renormalisation n'est pas lui-même une grandeur physique : les prédictions physiques de la théorie, si elles peuvent être calculées à l'ensemble des ordres, devraient habituellement être indépendantes du choix de ce point, tant qu'il reste dans le domaine d'application de la théorie. Les changements d'échelle de renormalisation ne feront qu'affecter les contributions respectives des divers diagrammes de Feynman convenablement rendus finis par renormalisation. On peut exploiter ce phénomène pour calculer la variation des constantes physiques selon l'échelle. Cette variation est dénotée par des fonctions β. La théorie générale de ce type de dépendance d'échelle est connue sous le nom de groupe de renormalisation.

En langage informel, les physiciens des particules parlent fréquemment de certaines constantes physiques qui dépendent de l'énergie de l'interaction, quoique la quantité indépendante soit en fait l'échelle de renormalisation. Cette variation décrit cependant une manière commode de décrire les changements du comportement de la théorie des champs selon les énergies impliquées dans les interactions. A titre d'exemple, puisque la constante de couplage en QED devient petite aux grandes énergies, la théorie se comporte de plus en plus comme une théorie de particules libres, au fur et à mesure que les énergies échangées dans les interactions deviennent grandes. Ce phénomène est nommé liberté asymptotique. En choisissant une échelle d'énergie croissante, et en utilisant le groupe de renormalisaton, on peut le constater sur des diagrammes de Feynman simples. Si on ne le faisait pas, la prédiction, semblable, serait énormément plus complexe à faire, car elle proviendrait de compensations compliquées entre diagrammes surtout d'ordre élevé.

Pour prendre un exemple simplifié à l'extrême : l'expression est indéfinie. Pour éliminer les divergences, on peut soustraire le même contre-terme de chacun des termes. On obtient alors l'expression finie

.

On remarque qu'il aurait été énormément plus commode de prendre tout de suite ε=b, ce qui aurait directement donné le résultat, le second terme s'annulant. Ce mécanisme est analogue au choix d'une échelle de renormalisation, où on n'a pas besoin de faire apparaître les compensations entre divers termes. Toujours faut-il savoir que c'est la même valeur de ε qu'il faut prendre pour les deux termes. Ceci simule le rôle du groupe de renormalisation.

Régularisation

Puisque la quantité ∞ - ∞ est indéfinie, pour rendre précise la notion de compensations des divergences, il faut en premier lieu les maîtriser mathématiquement, en utilisant la théorie des limites, selon un procédé dénommé régularisation.

Une modification pour la majeure partie arbitraire des intégrands de boucle, qu'on nomme régulateur, peut les conduire à tendre vers zéro pour des grandes valeurs de l'intégrand, plus vite que dans leur état naturel. Un régulateur peut dépendre d'une échelle de 4-moment caractéristique, qu'on nomme la coupure, ou sous son nom anglais cut-off. L'ensemble des diagrammes ont le même régulateur, et les contre-termes dépendent aussi du régulateur. Lorsque on fait disparaître le régulateur, par exemple, en faisant tendre la coupure vers l'infini, on retrouve les intégrales originales, mais on a regroupé les termes et les contre-termes de telle sorte qu'on trouve des résultats finis. Si le nombre de contre-termes de la théorie est fini, on obtient un résultat indépendant de la méthode de régularisation. La théorie est dite renormalisable.

On utilise la plupart de types de régulateurs pour les calculs de théorie quantique des champs, qui ont tous des avantages et des inconvénients. Un des plus populaires dans les usages modernes est la régularisation dimensionnelle, découverte par Gerardus't Hooft et Martinus Veltman. Elle maîtrise la divergence des intégrales en intégrant dans un espace-temps à un nombre de dimensions fictif fractionnel, inférieur à 4, nombre dont on prend en fin de calcul la limite de 4. Une autre est la régularisation de Pauli-Villars, qui ajoute à la théorie des particules fictives de très grande masse, en sorte que les intégrales de boucles impliquant les particules massives compensent les intégrales de boucles normales, à des valeurs des 4-moment énormément plus grandes que la très grande masse des particules fictives, qui joue par conséquent le rôle de cut-off.

Un autre schéma de régularisation est la régularisation sur réseau , introduite par Kenneth Wilson. Elle consiste à prétendre que notre espace-temps est constitué d'un réseau cubique à 4 dimensions, dont le pas est constant. L'inverse de ce pas est un cut-off naturel pour les composantes du 4-moment d'une particule se déplaçant sur le réseau. Après un calcul sur divers pas de réseau, le résultat physique est extrapolé à un pas de réseau nul, ce qui redonne notre espace-temps continu, sous certaines conditions de régularité du passage à la limite.

Il existe une méthode mathématiquement rigoureuse de pratiquer la renormalisation, la théorie des perturbations causale, où on évite les divergences UV dans les calculs dès le début, en ne faisant que des opérations mathématiquement bien définies dans le cadre de la théorie des distributions. L'inconvénient de cette méthode réside dans son aspect particulièrement technique, qui demande un haut degré de connaissances mathématiques.

Régularisation par la fonction zêta

Julian Schwinger a découvert une relation entre la régularisation de la fonction ζ et la renormalisation, en utilisant la relation asymptotique :

 I(n, \Lambda )= \int_{0}ˆ{\Lambda }dp\,pˆ{n} \sim 1+2ˆn+3ˆn+...+ \Lambdaˆn = \zeta(-n)

lorsque le régulateur Λ → ∞. Sur cette base, il a envisagé d'utiliser les valeurs de ζ (-n) pour obtenir des résultats finis. Quoiqu'il eût obtenu des résultats incohérents, une formule perfectionnée par Hartle, J. Garcia, E. Elizalde utilise :

 I(n, \Lambda) = \frac{n}{2}I(n-1, \Lambda) + \zeta(-n) - \sum_{r=1}ˆ{\infty}\frac{B_{2r}}{(2r)!} a_{n,r}(n-2r+1) I(n-2r, \Lambda),

où les B sont les nombres de Bernoulli et

a_{n,r}= \frac{\Gamma(n+1)}{\Gamma(n-2r+2)}.

Donc tout I (m, Λ) peut être écrit comme une combinaison linéaire de ζ (-1), ζ (-3), ζ (-5), ..., ζ (-m) .

Ou encore, en utilisant la formule d'Abel-Plana, on a pour l'ensemble des intégrales divergentes :

 \zeta(-m, \beta )-\frac{\beta ˆ{m}}{2}-i\int_ 0 ˆ{\infty}dt \frac{ (it+\beta)ˆ{m}-(-it+\beta)ˆ{m}}{eˆ{2 \pi t}-1}=\int_0 ˆ{\infty} dp (p+\beta)ˆ{m}

valable pour m > 0. Ici la fonction ζ est la fonction ζ d'Hurwitz et β est un nombre réel positif.

Une ressemblance géométrique serait, si on utilise la méthode des rectangles pour évaluer l'intégrale de cette manière :

 \int_{0}ˆ{\infty}dx(\beta +x)ˆ{m}\approx \sum_{n=0}ˆ{\infty}hˆ{m+1} \zeta( \beta hˆ{-1} , -m)

En utilisant la régularisation ζ d'Hurwitz en conjonction avec la méthode des rectangles avec un pas h.

Attitudes et interprétation

Les premiers bâtisseurs de QED et d'autres théories quantiques des champs étaient généralement mécontents de la situation. Il paraissait illégitime de faire quelque chose qui ressemblait à soustraire des illimitétés d'autres illimitétés en vue d'obtenir des résultats finis.

La critique de Dirac a été la plus durable. Toujours en 1975, il écrivait (Kragh, p.  184)  :

«La plupart des physiciens se satisfont idéalement de cette situation. Ils disent «QED est une bonne théorie, et nous n'avons pas à nous en soucier plus que cela.» Je dois dire que je suis particulièrement mécontent de cette situation, parce ce qu'ils nomment une «bonne théorie» implique de négliger des illimitétés qui apparaissent dans ses équations, ce qui introduit une part d'arbitraire. Cela ne ressemble absolument pas à des mathématiques sensées. Les mathématiques sensées impliquent de négliger des quantités lorsqu'elle s sont petites – pas de les négliger parce qu'elles sont illimitées et que vous n'en voulez pas !»

Un autre critique important était Feynman. Malgré son rôle essentiel dans la mise au point de QED, il rédige ceci, toujours en 1985, (Feynman 1990, p.  128)  :

«L'escroquerie que nous pratiquons... est nommée techniquement renormalisation. Mais quelque subtil que soit le mot, c'est toujours ce que j'appellerais un processus dingue ! Le fait d'avoir à recourir à ce genre de prestidigitation nous a empêché de démontrer que QED était logiquement cohérente mathématiquement. C'est étonnant qu'on n'ait pas encore réussi à montrer d'une manière ou d'une autre que la théorie est logiquement cohérente ; je soupçonne que la renormalisation n'est pas légitime mathématiquement.»

Tandis que les critiques de Dirac s'adressent à la procédure de renormalisation elle-même, celles de Feynman sont particulièrement différentes. Il est soucieux de voir que l'ensemble des théories des champs connues dans les années 1960 ont la propriété que les interactions deviennent illimitées à des échelles de distance suffisamment petites. Cette propriété, connue sous le nom de pôle de Landau, suggèrent que l'ensemble des théories quantiques des champs sont incohérentes. En 1974, Gross, Politzer et Wilczek montrent qu'une autre théorie quantique des champs, la chromodynamique quantique (QCD), ne présente pas de pôle de Landau. Feynman, avec la majorité des autres, reconnut que QCD pouvait être une théorie totalement cohérente.

Le malaise général se faisait sentir de façon quasiment universelle dans les textes jusqu'aux années 1970 et 1980. Cependant, inspirés par le travail sur le groupe de renormalisation et la théorie effective des champs, et malgré le fait que Dirac et divers autres – tous de la vieille génération – ne retiraient pas leurs critiques, les attitudes ont commencé à changer, surtout chez les jeunes théoriciens.

Kenneth Wilson et autres démontrèrent que le groupe de renormalisation est utile en principe des champs statistique appliquée à la physique de la matière condensée, où il donne une compréhension importante des transitions de phase. En physique de la matière condensée, il existe un régulateur à courte distance réel : la matière cesse d'être continue à l'échelle des atomes. Les divergences à courte distance ne présentent pas de problème philosophique pour la physique de la matière condensée, puisque la théorie des champs n'est de toute manière qu'une représentation effective, lissée, du comportement de la matière. Il n'y a pas d'illimitétés parce que le cut-off est en réalité toujours fini, et c'est particulièrement logique que les grandeurs nues dépendent du cut-off.

Si la théorie quantique des champs est vraie tout au long, jusqu'au delà de la longueur de Planck (où il faut peut-être la raccorder à la théorie des cordes, à la La langue de cette portion d'article est : en causal set theory ⇔ théorie causale des ensembles ou à quelque chose de ce genre), alors il n'y a peut-être aucun problème réel avec les divergences à courte distance de la physique des particules : toutes les théories des champs sont peut-être des théories des champs effectives. Dans un certain sens, cette position répond à l'ancienne attitude de ce que les divergences des théories quantiques des champs reflètent l'ignorance des hommes sur le fonctionnement intime de la nature, mais reconnaît en même temps que cette ignorance peut être maîtrisée, et que les théories effectives qui en résultent restent utiles.

En théorie quantique des champs, la valeur d'une constante physique dépend généralement de l'échelle choisie pour effectuer la renormalisation, et il devient particulièrement intéressant d'examiner le comportement de ces constantes par le groupe de renormalisation, sous l'effet d'un changement d'échelle de renormalisation. Les constantes de couplage du modèle standard de la physique des particules fluctuent de façon différente selon l'échelle : les couplages de la chromodynamique quantique et du couplage d'isospin faible de la force électrofaible tendent à diminuer, alors que le couplage de l'hypercharge faible de la théorie électrofaible tend à diminuer lorsque l'échelle de renormalisation augmente. À l'échelle colossale de 1015 GeV (bien au-delà des possibilités envisageables pour des accélérateurs de particules), elles deviennent toutes du même ordre de grandeur. Ceci est une motivation majeure pour les spéculations sur la théorie de grande unification. Au lieu d'être un problème insatisfaisant, la renormalisation est devenue un outil important pour étudier le comportement des théories des champs sous différents régimes.

Si une théorie comprenant une renormalisation (p. ex. QED) ne peut être raisonnablement interprétée que comme une théorie des champs effective, c'est-à-dire que comme une approximation reflétant notre ignorance sur le fonctionnement intime de la nature, alors il reste à trouver une théorie plus précise qui ne présente pas ces problèmes. Comme l'exprime Lewis Ryder, «En théorie quantique, ces divergences (classiques) ne disparaissent pas ; au contraire elles apparaissent pires. Et malgré le succès relatif de la théorie de la renormalisation, il reste un sentiment qu'il devrait y avoir une manière plus satisfaisante de gérer le problème» (Ryder 1996, p.  390).

Renormalisabilité

De toute cette réévaluation philosophique, un nouveau concept émerge naturellement : la notion de renormalisabilité. L'ensemble des théories ne se prêtent pas à la renormalisation selon le schéma esquissé auparavant, avec un nombre fini de contre-termes, et l'ensemble des quantités devenant indépendantes du cut-off à la fin du calcul. Si le lagrangien contient des combinaisons d'opérateurs de champ de dimensions trop élevées en unités d'énergie, alors les contre-termes prolifèrent jusqu'à l'infini, ainsi qu'à première vue, la théorie semble dépendre d'un nombre illimité de paramètres libres, et par suite perdre tout pouvoir prédictif, devenant inutilisable. Ce genre de théories sont nommées non-renormalisables.

Le modèle standard de la physique des particules ne contient que des opérateurs renormalisables, mais les interactions de la relativité générale deviennent non-renormalisables, si on essaie de construire une théorie de la gravitation quantique de la façon la plus évidente. Ceci suggère que la théorie des perturbations ne peut pas être appliquée à la gravitation quantique.

Cependant, dans une théorie effective des champs, la renormalisabilité est un terme impropre. Dans une théorie effective des champs non renormalisable, les termes du lagrangien se multiplient jusqu'à l'infini, mais voient leurs cœfficients divisés par des puissances croissantes du cut-off en énergie. Si ce cut-off est une quantité physique réelle – c'est-à-dire si la théorie n'est une description effective de la physique que jusqu'à une énergie maximale, ou une distance minimale – alors ces termes peuvent représenter des interactions physiques réelles. En supposant que les constantes sans dimension de la théorie ne deviennent pas trop grandes, on peut regrouper les calculs par puissances inverses du cut-off et extraire des prédictions approchées à un ordre fini dans le cut-off, qui dépendent toujours d'un nombre fini de paramètres libres. Il peut même être utile de renormaliser ces interactions non-renormalisables.

Les interactions non-renormalisables des théories des champs effectives deviennent rapidement plus faibles lorsque l'échelle d'énergie dépasse le cut-off. L'exemple classique est la théorie de Fermi de l'interaction faible, une théorie effective non-renormalisable, dont le cut-off est de l'ordre de la masse du boson W. Ce fait peut aussi donner une explication envisageable pourquoi presque l'ensemble des interactions peuvent être décrites par des théories renormalisables. Il peut se faire que celles qui existent à d'autres échelles (GUT ou Planck) deviennent tout simplement trop faibles pour être détectées dans le domaine que nous observons, avec une exception : la gravitation, dont l'interaction excessivement faible est compensée par la présence des énormes masses des étoiles et planètes.

Schémas de renormalisation

Dans les calculs réels, les contre-termes introduits pour compenser les divergences des diagrammes de Feynman comportant des boucles doivent être définis en utilisant un ensemble de conditions de renormalisation. Les schémas de renormalisation, qui fixent ces conditions, les plus utilisés comprennent :

Applications à la physique statistique

Systèmes purs, renormalisation à la Wilson

Principe

En physique statistique des dispositifs purs (ex., couplages bien déterminés entre les spins d'un réseau hypercubique), la renormalisation se rencontre dans l'étude des phénomènes critiques. À l'approche du point critique, la longueur de corrélation diverge. Comme on s'intéresse aux propriétés macroscopiques du corps, il est naturel de se concentrer sur les propriétés du dispositif à des échelles ltelle que la maille du réseau al (longueur de corrélation) .

Puisqu'on ne s'intéresse pas à ce qui se passe à des échelles plus petites que l, il est naturel de tenter de se ramener à un dispositif présentant les mêmes propriétés à longues distances, où on néglige les fluctuations plus petites que l, et de le comparer au précédent.

On ne passe pas directement de la petite échelle a à la grande échelle l, mais on décompose la démarche en plusieurs étapes nommées «itérations». À chacune on moyenne (intègre) les fluctuations à courte échelle, obtenant ainsi un dispositif plus simple (puisqu'on a moyenné les fluctuations à courte échelle, on n'en a plus le détail), mais également plus grand. On ramène alors le nouveau dispositif à la taille du dispositif d'origine avec un changement d'échelle en s'arrangeant pour qu'il laisse invariante la forme du hamiltonien (qui peut être vu comme les quantités Pi lors d'un changement d'échelle en hydrodynamique), mais avec de nouvelles valeur des couplages (comme en hydrodynamique les nombres Pi sont inchangés, mais la vitesse par exemple doit être plus grande). Au cours de la renormalisation certains paramètres augmentent, d'autres diminuent.

Dans l'espace réel

Dans l'espace réel, on débute par opérer une décimation. Cette opération consiste à regrouper les éléments du dispositif en petits groupes (par exemple dans une chaîne comportant un nombre pair de spins, on regroupe le premier avec le second, le troisième avec le quatrième etc. ). Plusieurs décimations sont envisageables. L'ordre de grandeur des blocs est de l'ordre de la maille du réseau a. Par la suite, il s'agit d'intégrer les fluctuations sur chaque bloc. Concrètement on moyenne sur chaque bloc soit en faisant une moyenne arithmétique soit en se donnant une règle raisonnable. À chaque bloc on affecte un spin ayant cette moyenne comme valeur (certains auteurs l'appellent superspin, pour montrer que c'est un spin fictif qu'on associe à un bloc). Le réseau des blocs est néanmoins plus espacé que le réseau d'origine. On effectue ensuite un changement d'échelle en veillant à ce que les propriétés à longue distance de la maquette ainsi obtenue soient les mêmes que celle du réseau d'origine. Ceci est obtenu en multipliant les couplages par un facteur d'échelle de manière à ce que la mesure (de Boltzmann) de chaque configuration soit la même que celle associée au dispositif de départ. Si on peut faire cela c'est que la théorie est renormalisable. Pourquoi avoir fait tout cela ? La maquette obtenue possède les mêmes propriétés à longue distance que le dispositif d'origine, mais au contraire de ce dernier, ignore le détail des fluctuations aux petites distances (puisqu'on a moyenné à l'échelle des blocs). On obtient ainsi un dispositif présentant la même physique à longue distance, mais plus simple, et ses couplages s'expriment suivant les couplages d'origine et de facteurs d'échelle. Le résultat peut être vu comme un modèle plus simple qui capture toute la physique intéressante. Ceci est par conséquent utile au voisinage des points critiques où la longueur de corrélation diverge, et où on s'intéresse donc aux propriétés à longue distance. En itérant cette transformation, on se ramène à des dispositifs de plus en plus essentiels. L'évolution des paramètres au cours de la renormalisation fait apparaître les paramètres essentiels.

Pour des dimensions spatiales fractionnaires juste inférieures à 4, les méthodes évoquées ci-dessus peuvent même être renforcées (c'est-à-dire qu'on a une super-renormalisabilité au lieu d'une simple renormalisabilité). Ceci permet une extrapolation à la vraie dimension spatiale de 3 pour les transitions de phase. Voir (Zinn-Justin 2002) pour les détails.

Le Prix Nobel de physique 1982 a été attribué à Kenneth Wilson pour la découverte de ces applications inattendues, et l'élaboration de leurs détails.

Diverses stratégies de renormalisation ont aussi été appliquées récemment pour calculer de façon explicite les théories de dispositifs classiques à N corps ou de polymères, comme par exemple, la méthode de représentation gaussienne équivalente (Bæurle et Nogovitsin 2007), (Bæurle, Charlot et Nogovitsin 2007), (Bæurle 2002).

Références et notes

  1. Voir Principe d'incertitude

Voir aussi

Introductions générales

Essentiellement théorie quantique des champs

Essentiellement physique statistique

Divers

Recherche sur Amazone (livres) :



Ce texte est issu de l'encyclopédie Wikipedia. Vous pouvez consulter sa version originale dans cette encyclopédie à l'adresse http://fr.wikipedia.org/wiki/Renormalisation.
Voir la liste des contributeurs.
La version présentée ici à été extraite depuis cette source le 07/04/2010.
Ce texte est disponible sous les termes de la licence de documentation libre GNU (GFDL).
La liste des définitions proposées en tête de page est une sélection parmi les résultats obtenus à l'aide de la commande "define:" de Google.
Cette page fait partie du projet Wikibis.
Accueil Recherche Aller au contenuDébut page
ContactContact ImprimerImprimer liens d'évitement et raccourcis clavierAccessibilité
Aller au menu