Idées-forces des théories de la physique contemporaine (Au coeur de la matière 2)

dimanche 26 novembre 2023.
 

Cette partie est la suite de la première partie accessible par le lien :

Partie 1 L’atome, de Dalton à ITER

http://www.gauchemip.org/spip.php?a...

2- Les idées-forces des théories de la physique contemporaine

Préambule : on rappelle ou on mentionne ici quelques rudiments de base de mathématiques et de physique enseignée dans l’enseignement secondaire pour rendre compréhensible au plus large public ce qui va suivre. On utilisera quelques symboles mathématiques sans jamais entrer dans des détails de calcul. Ces rudiments ne constituant pas un cours de mathématiques de physique, les notions sont abordées intuitivement.

Les phrases ou paragraphes écrits en italique sont un peu plus techniques.

Rendre accessible à un large public des connaissances scientifiques parfois extrêmement abstraites n’est pas chose aisée. Cette contribution espère faciliter l’accès à la vulgarisation scientifique, parfois d’un niveau assez élevé, existant dans la presse scientifique vendue en kiosque ou sur Internet et aussi diffusée par certaines émissions scientifiques de qualité.

Nous sommes environnés d’une multitude d’objets techniques qui font partie de notre vie quotidienne et qui ont demandé un très long travail de recherche fondamentale et appliquée. Ils cristallisent le travail intellectuel de plusieurs générations de chercheurs, d’ingénieurs et de techniciens. mais par-delà la variété des spécialisations théoriques et techniques, par-delà la diversité des formations des ingénieurs et techniciens, la trame de fond de toutes les formations et de toutes ces inventions restent les sciences physiques (et chimiques) avec ses outils mathématiques.

Mais ces sciences ne se réduisent pas à leur utilité technique, elles apportent des outils théoriques à la cosmologie pour comprendre la nature de l’univers, de son hypothétique origine et de son hypothétique avenir. Elles ont donc des retombées philosophiques considérables et structurent notre manière de voir le monde.

La relativité et la mécanique quantique ont totalement remis en cause notre conception de l’espace et du temps, notre conception de la causalité et du déterminisme.

Espérons que l’obtention du prix Nobel de physique par le Français Serge Harouche en ce mois d’octobre 2012, que la découverte du boson de Higgs en juillet 2012 qui nous permet enfin de savoir pourquoi nous avons tous un corps matériel et non éthéré (oui rien que ça !), donneront un regain d’intérêt à un large public pour ces sciences jugées trop souvent comme austères voire "ésotériques".

Cette partie est la plus longue des trois.

0 – Quelques notions de base.

0.1 – Référentiel et vitesse.

- On utilise en géométrie la notion de point représentée généralement par une lettre majuscule et en physique on utilise la notion de point matériel auquel on attribue une masse ou une charge électrique. (Il est possible de réduire la masse quelconque d’un corps à la masse de son centre de gravité.)

- On définit la position d’un point ou d’un corpuscule dans un plan ou dans l’espace grâce à un système de coordonnées, appelé repère, constitué de deux ou trois axes de même origine (souvent notée O). Chaque axe est doté d’une unité de longueur. Ce repère est aussi appelé référentiel en physique. Cette position est alors définie par deux ou trois nombres notés généralement x,y et z pour un espace à trois dimensions.

.En physique, on définit ce qu’est un référentiel galiléen : voir plus loin en 0.3.
- Si le point ou le corpuscule se déplace dans le plan ou dans l’espace pour décrire une certaine trajectoire, ces coordonnées dépendent alors du paramètre temps noté généralement t.

- On peut généraliser cette manière de caractériser un point dans un espace plus général appelé alors espace de phases. Par exemple, si l’on considère un son dans un espace sonore, ce son peut être caractérisé par trois nombres : durée en millisecondes, hauteur en Hertz , intensité en décibels. On a ainsi l’axe des durées, l’axe des hauteurs et l’axe des intensités. C’est à partir de cela que l’on n’a été capable de numériser la musique et de composer de la musique par ordinateur. (entre 1955 et 1965 environ).

- La vitesse d’un point ou d’un corps M est la distance D parcourue divisée par le temps de parcours T, ceci pour la définition arithmétique élémentaire. Algébriquement, la vitesse est le quotient d’une distance infinitésimale notée par exemple dx ou dOM franchie pendant une durée infinitésimale notée souvent dt. On écrit alors : v = dx/dt ou v = dOM/dt (dérivée de la distance par rapport au temps).

0.2 -Les transformations géométriques

Considérons un point M de position donnée dans l’espace. Il est possible de le déplacer grâce à une transformation géométrique pour l’envoyer dans une autre position de point noté ici M

- Si l’on effectue un glissement dans un sens déterminé le long d’une droite donnée, la transformation s’appelle une translation.

- Si l’on effectue une rotation dans un sens donné autour d’un point ou d’un axe, on a une rotation d’un certain angle donné.

- Si l’on envoie le point M en un point M’ situé de l’autre côté d’un point fixe, par exemple noté A, situé à la même distance que M du point À, ces trois points étant alignés, la transformation est une symétrie centrale.

- Si enfin l’on envoie le point M en un point M’ situé de l’autre côté d’une droite par exemple notée D situé à la même distance que M de cette droite, la droite MM’ étant perpendiculaire à la droite D, la transformation est une symétrie axiale ou réflexion. La droite D s’appellent axe de symétrie. Dans l’espace, on peut remplacer la droite D par un plan qui devient alors un plan de symétrie.

Il existe d’autres transformations mais ce sont celles décrites ci-dessus qui sont le plus utilisées en mathématiques et en physique.

Elles jouissent toutes d’une propriété remarquable : elles conservent les distances entre les points.

Cela signifie que si l’on envoie les points M et N en les points M’ et N’ par l’une de ces transformations, on a : M’N’ = MN. On dit que ces transformations sont des isométries.

On montrerait aussi que l’isométrie conserve la mesure (en valeur absolue) des angles.

Cette idée qu’une transformation, ici de nature géométrique, puisse conserver une grandeur porte, en physique, le nom de loi de conservation.

0.3 – Notion de force.

Une notion fondamentale de la physique classique est celle de force. L’idée de force date de l’Antiquité grecque avec Aristote qui considérait les forces comme provoquant le mouvement, mais il les limitait aux modes d’action par contact, comme par exemple l’action de tirer, soulever ou pousser un objet. L’invention de la roue aux alentours de 3500 ans avant J.-C par les sumériens, puis celle de la poulie parfois attribuée à Archimède, ne permirent pas encore d’avoir une idée claire de la notion de force.

C’est à Newton que l’on doit la première formalisation de la notion de force avec la définition des trois lois du mouvement dans son ouvrage Philosophiae Naturalis Principia Mathematica (1687) qui constitue, en quelque sorte, le premier traité de physique classique.

- Première loi :Tout corps se maintient dans son état de repos ou de mouvement uniforme en ligne droite tant qu’aucune force n’agit sur lui : (a = 0 si F = 0)

- Deuxième loi :la force d’un corps est déterminée par le produit de la masse du corps en mouvement par son accélération (F = ma)

- Troisième loi ( sur l’action et la réaction) : si un corps exerce une force sur un autre corps, celui-ci exerce sur le premier une force de grandeur égale mais de direction opposée.

En physique, un référentiel galiléen, ou inertiel, est un référentiel dans lequel un objet isolé (sur lequel ne s’exerce aucune force ou sur lequel la résultante des forces est nulle) est en mouvement de translation rectiligne uniforme (l’immobilité étant un cas particulier de mouvement rectiligne uniforme) : la vitesse du corps est constante (au cours du temps) en direction et en valeur. Cela signifie que le principe d’inertie, qui est énoncé dans la première loi de Newton, y est vérifié.

Un référentiel galiléen1 est un référentiel pour lequel l’espace est homogène et isotrope, le temps uniforme.. Pour plus de détails , notamment sur les changements de repères : http://fr.wikipedia.org/wiki/R%C3%A...

Le fait qu’un corps puisse agir sur un autre à distance par l’action d’une force n’était pas encore imaginable à l’époque de Newton.

C’est Roger Boscovich en 1758 qui avança que la matière consiste en des centres non étendus de force (points) qui, agissant dans l’espace vide, exercent une action répulsive à très courte distance, une action alternativement attractive et répulsive à mesure que la distance croit. Ces ponts finissent par obéir à la loi de l’inverse du carré de la distance de Newton pour des distances macroscopiques. L’idée même qu’un corps puisse agir là où il n’est pas avait perdu son caractère irrationnel.

Pour plus de détails sur l’histoire du concept de force voir : Le concept de force : http://www.ac-nice.fr/massena/clubs...

0.4 – Notion de vecteur.

La formalisation du concept de force contribua à faire progresser les mathématiques par l’utilisation du concept de vecteur qui représente une force en physique. Ce vecteur est donc défini géométriquement par une direction (droite – support du vecteur), une orientation (un sens, celui de la flèche), une longueur (norme, module) représentant l’intensité de la force. Le point origine du vecteur est le point d’application de la force. (Le mot vecteur vient de vector qui veut dire en latin conducteur de chariot ou de vehere, qui signifie « porter » et vient aussi d’un mot sanskrit signifiant chariot).

L’Irlandais Sir William Hamilton (1805-1865) fut l’un des premiers à utiliser les vecteurs L’Allemand Hermann Grassman (1809-1877) introduisit la notation vectorielle pour des problèmes de physique. L’Américain Gibbs (1839-1903) et l’Anglais Heaviside (1850-1925), disciples de Hamilton, donnent au calcul vectoriel sa forme quasi définitive,

Lorsque l’on considère un point M repéré dans un référentiel d’origine O, on appelle rayon vecteur (ou vecteur position) r le vecteur OM.(on n’a pas représenté ici les flèches au-dessus de r et de OM en raison d’impossibilité typographique).

Ce concept fut ensuite généralisé d’une manière plus abstraite : un vecteur devint un élément d’un espace vectoriel défini axiomatiquement.

Intermède : notion de fonction mathématique.

Une fonction en mathématique est une correspondance établie entre, par exemple, une grandeur de valeur variable x (par exemple la durée d’un travail) et une autre valeur variable V dépendant de x (par exemple le montant du salaire). On écrit V = f(x) qui signifie que le salaire est fonction de la durée du travail.

Mais ce salaire peut dépendre aussi d’autres variables : le montant y des cotisations sociales, la distance z domicile –lieu de travail . On écrit alors : V = f (x,y,z)

Composantes d’un vecteur.

De même qu’une fonction mathématiques peut avoir une ou plusieurs variables, un vecteur peut avoir une, deux, trois coordonnées (ou composantes) selon qu’on le considère sur une droite, dans un plan, dans l’espace. On peut généraliser pour un nombre quelconque de coordonnées dans les espaces à un nombre quelconque dimensions.

On peut définir d’une manière appropriée l’addition de vecteurs et la multiplication d’un vecteur par un nombre de manière à pouvoir rendre compte de l’action de plusieurs forces sur un point matériel par exemple ou tout simplement exprimé un vecteur en fonction de ses projections sur deux ou trois axes.

Si l’on projette un vecteur U sur trois axes, il est égal à la somme de ses trois projections. http://www.seg.etsmtl.ca/math/Vecte... (p.2)

On verra une application de cela avec le vecteur de spin.

On peut définir deux autres opérations entre 2 vecteurs :
- le produit scalaire dont le résultat est un nombre
- et le produit vectoriel dont le résultat est un vecteur perpendiculaire à chacun d’eux. (nous ne donnons pas ici la définition détaillée figurant dans les programmes de classes de première et terminale scientifiques)

Les vecteurs servirent alors à représenter d’autres grandeurs comme la vitesse, l’accélération, le poids et des forces magnétiques, électriques, etc. Ces grandeurs sont représentées souvent par une (ou deux) lettre surmontée d’une flèche.

On a donc été conduit à différencier deux êtres mathématiques de nature différentes en physique : les grandeurs scalaires représentées par des nombres et les grandeurs vectorielles représentées par des vecteurs. d’où des expressions comme "champ scalaire" et "champ vectoriel" que nous verrons plus loin.

Le travail Wf d’une force exercée sur un point matériel est le produit entre l’intensité f de cette force par la distance d parcouru par le point mis en mouvement par cette force. (on suppose ici que la direction du déplacement est le même que la direction du vecteur force, (sinon on définit le travail comme le produit scalaire du vecteur force et du vecteur associé à la distance parcourue). W = f.d

0.5 – Les concepts de base de la mécanique classique.

Les concepts de base utilisées dans la physique, outre celles que nous venons de voir, sont les suivantes :

- la quantité de mouvement ou impulsion. C’est le produit de la masse m et de la vitesse v : p =mv

- le moment cinétique d’un point matériel : c’est le produit vectoriel du rayon vecteur r par la quantité de mouvement p. (Cette grandeur physique joue dans le cas d’une rotation, un rôle analogue à celui de la quantité de mouvement pour une translation). En particulier, pour un point tournant circulairement (avec un rayon r ) autour d’un point fixe ou d’un axe fixe, avec une vitesse angulaire a, le moment cinétique vaut mr²a En nommant I le moment d’inertie qui vaut :mr², le moment cinétique s’écrit : Ia

Pour plus de détails : http://fr.wikipedia.org/wiki/Moment...)

- l’énergie E. On distingue :

1 – l’énergie cinétique Ec = 1/2mv²

2 - l’énergie potentielle associée à une force conservative : Ep = -Wf (Wf travail de la force vue ci-dessus)

Cas particulier où la force est celle de la pesanteur P. Dans son cas, on sait que : poids P = mg où g.est l’accélération de la pesanteur et m est la masse m du corps. En considérant que h est la distance verticale parcourue par ce corps par changement d’altitude, on a : Ep = - mgh

Dans le cas d’une force conservative on montre que cette force dérive de l’énergie potentielle.

3- l’énergie mécanique du point M : Em =Ec + Ep

4- l’énergie interne d’un corps : c’est la totalité des énergie cinétique et potentielle des composantes microscopiques de ce corps.

5 - Deux opérateurs fondamentaux.

- Le lagrangien L est défini par la différence entre l’énergie cinétique et l’énergie potentielle. L = Ec – Ep

- Le Hamiltonien H est une formulation généralisée de l’énergie mécanique. Ces êtres mathématiques décrivent la variation dans le temps du système physique étudié. Toutes les théories de la physique contemporaine étudient les structures mathématiques conservant ces deux dernières quantités à l’occasion de différentes transformations. Ces structures conservatives sont généralement des groupes.

0.6 – La notion de groupe en mathématiques.

Cette notion joue aussi un rôle central en physique, Un groupe est un ensemble d’éléments (nombres, vecteurs, transformations géométriques, etc. ) muni d’une opération dite interne * vérifiant trois propriétés. La définition, est assez simple bien qu’étant étant un peu technique,

- Associativité : a*(b*c) = (a*b)*c L’opération * peut-être l’addition, la multiplication, le produit de transformations, etc.

- Existence d’un élément neutre unique e : a*e = e*a = a Par exemple pour l’addition, e est le nombre 0 et pour la multiplication e est le nombre 1.

- Tout élément a possède un élément symétrique a’ : a*a’ = a’*a = e Dans le cas de l’addition, a’ est -a ; dans le cas de la multiplication : a’ est 1/a avec a non nul.

- Le groupé est dit commutatif ou abélien si : a*b = b*a Dans tous les cas, les propriétés doivent être vraies pour toute valeur de a, b, c.

Prenons l’exemple de l’ensemble des rotations autour d’un axe dans l’espace. Considérons une rotation R d’axe (D) envoyant un pont A en un point B, par exemple d’un angle de 30° et une rotations S de même axe envoyant le point B en C d’un angle de 40°. Il existe une rotation T de même axe, d’angle 30° + 40° qui envoie directement le point A en C . cette rotation T est dite produit (ou composée) des rotations R et S. On écrit que : T = SoR. On a ainsi défini une opération notée o dans l’ensemble des rotations.

Cette opération confère à l’ensemble des rotations une structure de groupe . Si après avoir effectué la rotation R qui envoie A en B, on effectue la rotation R’ qui envoie B en A, cette action annule la première : R’ est la rotation inverse ou réciproque de R. C’ est l’élément symétrique de R. La rotation qui envoie A en A est la rotation d’angle nul : on la note Id. C’est l’élément neutre. On constate bien que : RoId = IdoR = R RoR’ = R’oR = Id Si l’on fait agir successivement trois rotations R1, R2 et R3, on peut montrer que la manière d’associer leur action (en groupant les deux premières ou en groupant les deux dernières) ne change pas le résultat final. Cette opération est aussi associative.

On obtiendrait un résultat semblable pour les translations qui forment aussi un groupe.

Si l’on applique une rotation d’un angle de 60° à un flocon de neige, rotation dont le centre est le centre de ce flocon, celui-ci se superpose à lui-même : on dit que la rotation laisse globalement invariant le flocon.

Pour voir la structure d’un flocon de neige : http://fr.wikipedia.org/wiki/Flocon...

0.7 – Les lois de la conservation mécanique classique.

On peut appliquer un raisonnement analogue à des systèmes physiques. Considérons par exemple une configuration de charges électriques de charges positives et négatives. Entre elles s’exercent des forces d’attraction ou de répulsion électrostatique maintenant la configuration.

Supposons que l’on inverse le signe de chaque charge (cette opération s’appelle conjugaison C). Alors, l’intensité des forces reste la même et la configuration reste inchangée. On dit que la transformation des charges par conjugaison conserve le champ électrique.

À partir des concepts de base de la mécanique classique, on définit les trois grandes lois de conservation de la mécanique classique dont on ne peut donner la démonstration ici :

- la conservation de la quantité de mouvement pour un système isolé qui résulte de l’invariance par translation dans l’espace (propriété d’homogénéité de l’espace),
- la conservation du moment cinétique qui est liée à l’isotropie de l’espace (il n’ existe pas de direction privilégiée dans l’espace)
- et celle de la conservation de l’énergie qui résulte de l’uniformité du temps (un variance par translation du temps du choix de l’origine du temps (. Comme on l’a vu ci-dessus, un repère galiléen respecte ces lois de conservation

0.8 - L’émergence de la notion de champ.

La loi de Coulomb exprime, en électrostatique, la force de l’interaction électrique entre deux particules chargées électriquement. Elle est nommée ainsi du nom du physicien français Charles-Augustin Coulomb qui l’a énoncée en 1785 et elle forme la base de l’électrostatique. Elle peut s’énoncer ainsi : « L’intensité de la force électrostatique entre deux charges électriques est proportionnelle au produit des deux charges et est inversement proportionnelle au carré de la distance entre les deux charges. La force est portée par la droite passant par les deux charges. » (Elle s’exprime par la formule : F = kQq/r² avec k= 1/4πe où Q et q sont les charges, r la distance entre les deux charges, π le nombre pi, e la permitivité du milieu.).

On interprète alors l’existence de cette force comme étant causée par un champ électrostatique E engendré par la charge électrique Q en un point situé à une distance r de cette charge. (plus précisément, on a alors : E= kQ/r² et de ce fait F= qE).

Un champ électrique constitue donc une perturbation de l’espace causée par une charge et expliquant l’action de cette charge à distance. Puis ce champ est supposé liée à une potentialité de la charge Q à modifier les caractéristiques de l’espace à une certaine distance r : c’est le potentiel V créé par la charge.

(on a : V = - kQ/r ,et de ce fait, E = - dV/dr représentant ainsi la dérivée du potentiel.) On dit alors que le champ électrique est dérivé d’un potentiel scalaire. (En faisant intervenir les coordonnées x,y,z du point de l’espace où agit la charge Q, on a , E = - grad V, grad V représentant la somme des trois dérivées partielles de V par rapport aux trois coordonnées)

Un raisonnement totalement analogue au précédent explique l’action à distance d’une masse M sur une autre masse m par l’action d’un champ gravitationnel qui modifie les propriétés de l’espace selon une loi analogue dite de Newton.

(Précisément, la force d’attraction universelle F de gravitation est donnée par : F = gMm/d² où g est la constante de gravitation)

Le champ gravitationnel dans cette optique dérive lui aussi du potentiel de gravitation U. Dans ces deux cas, les propriétés de l’espace sont modifiées par l’existence d’un champ central dérivant d’un potentiel scalaire.

On ne connaissait autrefois que le magnétisme des aimants naturels à base de magnétite mais en 1819, le savant danois Oersted découvre que l’aiguille d’une boussole est déviée lorsqu’elle est placée à proximité d’un fil électrique conducteur de charges. Naquit ainsi l’idée qu’une charge électrique en mouvement créé une un champ magnétique.

Parallèlement, le savant Laplace découvrit qu’en plaçant un fil parcouru par un courant dans l’entrefer d’un aimant en U était alors soumis à une force perpendiculaire au fil. On en déduisit que la force magnétique correspond à une interaction à distance entre charges électriques mobiles. Il existe donc un lien entre la force magnétique, le champ magnétique, la charge électrique et sa vitesse.

(Ce lien entre cette force F dite de Laplace et le champ magnétique B est donné par la formule : F = qv^B où la force F , la vitesse v de la charge q et le champ magnétique B sont des vecteurs et où le symbole ^ représente l’opération du produit vectoriel. Cette loi est aussi formulée sous forme différentielle : dF = i.d l^B où i = dq/dt est l’intensité du courant et en associant dl et dt qui donne v en obtiendrait : dF = dqv ^B )

Une charge q animée d’une vitesse v située en point P créé en un point M situé à une distance r de P un champ magnétique B qui est vecteur perpendiculaire au rayon vecteur r et au vecteur vitesse v.

(plus précisément : B = k(qv^u)/r² où u est le vecteur unité du rayon vecteur PM, k= u/4π avec u qui représente la perméabilité magnétique du milieu)

On appelle flux magnétiquele produit du champ magnétique par une surface qu’il traverse selon un certain angle. Une variation du flux magnétique au travers un circuit fermé créé une force appelée force électromotrice (notée ici f) proportionnelle au taux de changement du flux magnétique : c’est la loi de Faraday. (f = - dФ/dt)

Lorsqu’une particule est soumise simultanément à un champ électrique E est un champ magnétique B, la particule est soumise à une force dite de Lorentz – la somme de la force électrique et de la force magnétique. (plus précisément on a l’égalité : F =qE + qv^B). Il y a donc superposition de l’action des deux champs.

La formule euc² = 1 avec e permittivité du champ électrique dans le vide, u perméabilité du champ magnétique dans le vide et c désignant la vitesse de la lumière établit un lien entre champ électrique champ magnétique et lumière, chose totalement incompréhensible pour les physiciens d’alors. Tels sont quelques résultats fondamentaux qui sont à la base de l’électromagnétisme moderne et dont les applications technologiques sont innombrables et peuplent notre vie quotidienne.

1 – L’électromagnétisme et Maxwell

L’électromagnétisme est né de l’unification par James Maxwell de théories antérieures, comme l’électrostatique, l’électrocinétique ou la magnétostatique dont nous venons de passer en revue les principaux éléments. Cette théorie unifiée explique, entre autres, le comportement des charges et courants électriques, des aimants, ou des ondes électromagnétiques, telles la lumière ou les ondes radio.

Les ondes électromagnétiques (perturbations des champs électrique et magnétique) sont produites par les particules chargées accélérées C’est en 1864 que Maxwell conçoit la lumière comme la propagation d’un champ électromagnétique, ce qui constitue une véritable révolution copernicienne Bien que la formulation mathématique dépasse le cadre de ce texte de vulgarisation, l’importance fondamentale et historique des équations de Maxwell nécessite qu’on on s’y arrête.

Maxwell établit quatre équations décrivant et reliant les variations du champ magnétique et électrique. Elles s’appliquent aussi à la propagation des ondes électromagnétiques dans le vide.
- L’équation de Maxwell-Gauss relie la variation du champ électrique à la distribution de charges et à la permittivité du vide
- L’équation de Maxwell – flux concerne la variation du champ magnétique
- L’équation de Maxwell Faraday relie la variation du champ électrique à la variation du champ magnétique par rapport au temps.
- L’équation de Maxwell Ampère relie la variation du champ magnétique à la variation du champ électrique par rapport au temps et la distribution de courants.

On peut trouver l’expression mathématique de ces équations par exemple à : http://melusine.eu.org/syracuse/imm... . Elles sont enseignées dans les cours de physique de deuxième année des classes préparatoires aux grandes écoles des sections scientifiques.

Albert Abraham Michelson et Edward Morley, après six années d’expériences, établissent en 1887 que la vitesse de la lumière est invariable. Ernst Mach en déduisit le premier que l’éther, substance qui était censée permettre aux ondes électromagnétiques de se propager (comme l’air constitue le support de la propagation des ondes sonores) n’existait pas.

Cet invariance est à l’origine des transformations dites de Lorentz établies en relativité restreinte par Einstein en 1905.

En 1896 Zeeman découvrit que les raies spectrales d’une source de lumière soumise à un champ magnétique possèdent plusieurs composantes, chacune d’elles présentant une certaine polarisation. Ce phénomène, appelé par la suite « effet Zeeman », confirma la théorie électromagnétique de la lumière. L’effet a pour origine la subdivision des niveaux d’énergie des atomes ou des molécules plongés dans un champ magnétique. Selon les conditions, les raies spectrales se divisent en un nombre impair de composantes (et l’effet est dit « normal », tel qu’il a été prévu par Zeeman et Lorentz) ou bien en un nombre pair (et l’effet est dit « anomal » — et non « anormal »).ce n’est qu’ultérieurement, par l’introduction de la notion de spin, que la mécanique quantique expliqua cet effet.

2 – Le photon.

Le concept de photon a été développé par Albert Einstein entre 1905 et 1917 pour expliquer des observations expérimentales qui ne pouvaient être comprises dans le cadre d’un modèle ondulatoire classique de la lumière. Il a ainsi montré que parallèlement à son comportement ondulatoire — interférences et diffraction —, la propagation du champ électromagnétique présente simultanément des propriétés corpusculaires.

Les photons sont des « paquets » d’énergie élémentaires, ou quanta de rayonnement électromagnétique qui sont échangés lors de l’absorption ou de l’émission de lumière par la matière.

De plus, l’énergie et la quantité de mouvement (pression de radiation) d’une onde électromagnétique monochromatique sont égales à un nombre entier de fois celles d’un photon. Les photons ont originellement été appelés « quanta de lumière » (das Lichtquant) par Albert Einstein. Le nom moderne « photon » est dérivé du mot grec qui signifie soleil, φῶς, φωτός (translittéré phos, photos), et a été choisi en 1926 par le chimiste Gilbert N. Lewis. On symbolise souvent en physique le photon par la lettre gamma.

Les travaux sur les photons restent d’actualité puisque Serge Haroche a reçu le 9 octobre 2012 le prix Nobel de physique pour ses travaux sur la physique quantique et les photons. "Serge Haroche, 68 ans, avec ses collègues Jean-Michel Raimond (Université Pierre et Marie Curie) et Michel Brune (CNRS), a réussi en 2007 à observer la vie et la mort d’un photon (grain de lumière) et en 2008 à observer le passage du quantique à la physique classique sur un petit paquet de photons. Pour cette expérience, ils ont utilisé un dispositif (une cavité tapissée de miroirs), capable de piéger pendant très longtemps des photons, ainsi qu’une méthode d’observation des photons qui ne les perturbe que très peu. Ils ont ainsi pu observer le passage des photons d’un état atypique du monde quantique à un état correspondant parfaitement à la physique classique, un phénomène appelé "décohérence" qui s’est déroulé sous leurs yeux."

(Le Monde http://www.lemonde.fr/prix-nobel/ar... )

Vers la 16e minute d’interview concernant sa remise du prix Nobel, Serge Haroche, relate comment Albert Einstein a pu expliquer l’effet photoélectrique avec l’hypothèse du photon. Voir la vidéo : http://www.dailymotion.com/video/xu97gm

3. La relativité restreinte d’Einstein

3.1 – Une nouvelle conception du temps et de l’espace.

L’invariance des équations de Maxwell (par changement de référentiel inertiel) entraîne immédiatement la constance de la vitesse de la lumière c dans tous les référentiels galiléens : l’additivité des vitesses n’est plus vraie et la vitesse de la lumière est inatteignable (sauf pour la lumière, qu’elle soit considérée comme une onde ou comme constituée de photons, particules de masse nulle) ;

Considérons un repère R1 supposé fixe (la Terre, par exemple) et un repère R2 supposé mobile par rapport au premier.(par exemple un vaisseau spatial de masse m) se déplaçant à une vitesse uniforme v.

La relativité restreinte stipule alors que, si la vitesse v du deuxième référentiel par rapport au premier est élevée :

- le temps s’écoule plus lentement dans le second référentiel que dans le premier (dilatation du temps)

- les distances mesurées dans le second référentiel sont plus petites que dans le premier (contraction de l’espace)

- la masse d’un même corps mesuré dans le second référentiel augmente avec la vitesse de celui-ci. On parle alors de masse relativiste.

Ces effets de contraction et dilatation sont d’autant plus importants que la vitesse v se rapproche de celle de la lumière c.

Pour des détails quantitatifs : http://fr.wikipedia.org/wiki/Relati... http://fr.wikipedia.org/wiki/Masse

Ainsi l’espace et le temps n’ont pas de caractère absolu mais sont relatifs et sont reliés entre eux par quatre égalités mathématiques qui constituent la transformation de Lorentz. Aucun corpuscule mobile ne peut avoir une vitesse supérieure à celle de la lumière dans le vide qui est une vitesse limite.

Elle a été fixée à 299 792, 458 kilomètres par seconde en 1983 par le Bureau international des poids et mesures que l’on arrondit généralement à 300 000 km/s. La lumière met donc, par exemple, une seconde pour franchir la distance Terre Lune mais 100 000 ans pour traverser notre galaxie. Cette valeur sert, du même coup, à définir le mètre comme la distance parcourue dans le vide par la lumière en 1/299 792 458 de seconde.

Pour mesurer les distances entre les étoiles ou les galaxies, on utilise en astronomie l’année-lumière qui est la distance parcourue par la lumière dans le vide en un an. Cette valeur vaut environ 9460 milliards de kilomètres. La taille de notre univers est actuellement évaluée à environ 14 milliards d’années-lumière.

Il faut 8,32 minutes pour franchir la distance Soleil Terre (considéré comme unité astronomique ua pour les petites distances) et 5,5 heures pour franchir la distance Soleil – Pluton la plus éloignée des planètes du soleil de notre système solaire.

Il ne peut exister dans l’univers de propagation instantanée d’onde ou de corpuscule. Il en résulte l’absence d’interaction instantanée à distance ce qui conduit à délaisser le concept de force vue comme action d’un point matériel sur un autre au profit du concept de champ.

De sorte qu’une particule crée un champ et toute particule se trouvant dans ce champ sera soumise à une certaine force. La Relativité conserve le concept essentiel, en mécanique classique, de point matériel.

Grâce à la relativité, on peut comprendre un certain nombre de phénomènes se réalisant dans les accélérateurs de particules où ces particules sont accélérées à des vitesses proches de celle de la lumière.

Considérons par exemple le cas de la particule élémentaire appelée muon (représenté par la lettre grecque mu, découvert en 1936). Sa durée de vie est de l’ordre de 2 millionièmes de seconde : t = 2,2. 10 -6 . À la vitesse de la lumière, c =300 000 km/s, en utilisant la physique classique, il devrait parcourir pendant ce temps une distance de : t/c = 659 m. Or expérimentalement, on obtient des chiffres très différents. En utilisant les formules de la relativité du temps, le référentiel lié au muon, donne un temps d’existence plus long ce qui lui permet de parcourir une distance plus grande. Avec une vitesse de 99 % de celle de la lumière, on constate que le muon parcourt 4613 m et à avec une vitesse égale à 99,9 % de celle de la lumière, il parcourt 14 680 m. Ces données théoriques sont en accord avec les observations expérimentales.

Voici par exemple de cours complet sur la relativité restreinte sur Internet : Un cours pédagogique de relativité restreinte (ENS)

http://www.phys.ens.fr/cours/notes-...

http://www.darksideofgravity.com/re... (plus théorique au départ)

3.2 – L’espace temps de Minkowski et groupe de Poincaré.

On établit les coordonnées d’un point dans un repère à quatre dimensions : les trois dimensions d’espace usuelles notées x,y,z et une quatrième cordonnée ict où i désigne le nombre imaginaire défini par i² = -1 , c la vitesse de la lumière et t le temps.

On définit ainsi l’espace-temps de Minkowski. En notant ds la distance infinitésimale entre points très rapprochés d’un tel espace, cet intervalle d’espace-temps s’écrit : ds²= c²dt² - dx² - dy² - dz²

C’est en cherchant la transformation mathématique qui laisse invariant cet élément d’univers lorsque l’on change de repère de coordonnées (ce qui est aussi une traduction de l’invariance de la vitesse de la lumière) que l’on a découvert la transformation de Lorentz. Mais il existe d’autres méthodes de calcul.

Supposons que deux événements 1 et 2 soient séparés par une distance Δl définie par Δl² = Δx² + Δy² + Δz² Supposons que ces deux événements se réalisent séparés par un intervalle de temps Δt, L’intervalle d’espace-temps Δs est défini par : Δs² = c²Δt² - Δl² Cet intervalle d’espace temps est dit de genre temps si Δs² > 0 , auquel cas il est possible que les deux événements se situent au même endroit, mais pas au même moment. Ces deux événements peuvent être liés par un lien causal. L’intervalle est dit de genre espace si Δs² < 0 , auquel cas il est possible que les deux événements se produisent au même moment en des endroits différents. Il ne peut exister de lien causal entre les deux événements. Pour plus de détails voir : http://fr.wikipedia.org/wiki/Interv...’espace-temps

Une quantité physique représentable par un vecteur à quatre composantes vérifiant pour chacune de ses composantes les formules de Lorentz, est nommé quadrivecteur. On utilise par exemple le quadrivecteur énergie – impulsion. Elle est considérée en physique comme invariant relativiste. Par exemple la quantité : E² - p²c² = m²c4 est un invariant relativiste (E énergie, p quantité mouvement, m masse, c vitesse de la lumière)

Pour une approche assez simple de transformation de Lorentz : http://jac_leon.perso.neuf.fr/relagen/relagen1.htm

L’ensemble des transformations de Lorentz forme un groupe appelé groupe de Lorentz Une extension de ce groupe est le groupe de Poincaré . voir : http://fr.wikipedia.org/wiki/Groupe...)

Une autre découverte de la relativité restreinte est l’équivalence entre matière et énergie selon la fameuse formule : E = mc² , E étant l’énergie, m la masse , c vitesse de la lumière.

4 – La relativité générale d’Einstein.

Mathématiquement beaucoup plus ardue que la relativité restreinte, elle établit que la gravitation (responsable de l’attraction universelle des corps) résulte de la déformation (courbure) de l’espace temps par la présence même de corps matériels ou d’énergie dans cet espace. La gravitation, c’est donc de la géométrie.

Voici ses principe de base :

" i) La gravitation c’est de la géométrie.

Tous les phénomènes dus à des forces gravitationnelles dans un contexte newtonien ont pour cause la courbure de la géométrie de l’espace-temps à quatre dimensions.

ii) La courbure de l’espace-temps a pour sources la masse et l’énergie.

La masse est la source de la courbure de l’espace-temps, mais toute autre forme d’énergie l’est aussi.

iii) La trajectoire d’une particule libre est le « chemin le plus direct » dans un espace-temps courbe.

Cette idée est une conséquence du principe de la moindre action. Un tel chemin se nomme une « géodésique ». On le calcule en exprimant que la norme, dans l’espace-temps considéré, est minimale"

(Principes de base de la relativité générale. http://e2phy.in2p3.fr/2005/Signore.pdf )

Ainsi, en relativité générale, la Terre se meut sur une orbite autour du soleil non pas à cause d’une force gravitationnelle exercée par le Soleil – mais parce qu’elle suit le « chemin le plus direct » dans l’espace-temps courbé par le Soleil. Nous sommes donc loin de la conception de Newton

L’équation fondamentale d’Einstein de la relativité générale est en fait un ensemble d’équations qui fixent la métrique - et donc la courbure de l’espace-temps - engendrée par une distribution donnée de matière. En présence d’un champ de gravitation variable, non seulement la métrique spatiale n’est pas euclidienne, mais en plus, elle varie avec le temps. La relativité générale prévoit l’existence des trous noirs et des ondes gravitationnelles.

Pour plus de détails : http://fr.wikipedia.org/wiki/Relati...

Les ondes gravitationnelles.

De même qu’une charge électrique accélérée dans un champ magnétique créé une onde électromagnétique, une masse accélérée dans un champ gravitationnel créé une onde gravitationnelle.

Avant leur découverte, on disposait on d’une preuve observationnelle indirecte de leur existence. Russell Hulse et Joseph Taylor ont fourni cette preuve en observant le pulsar binaire PSR B1913+16 et montrant que sa période orbitale décroit précisément comme le prédit la théorie de la relativité générale si l’on considère que ce système perd son énergie par émission gravitationnelle. Ce résultat a valu à ces deux chercheurs américains de recevoir le prix Nobel de Physique en 1993.

On peut consulter un cours complet et clair de relativité restreinte et générale dans le tome 2 "Théorie du champ" du cours complet de physique théorique du prix Nobel Landau (éditions Mir – Moscou).

On trouve des cours complets sur Internet comme : Cours de relativité générale de l’observatoire de Meudon : http://www.luth.obspm.fr/ luthier/g... ou de l’université de Genève : http://mpej.unige.ch/ durrer/course...

5- La mécanique quantique

5.1 – Quelques éléments historiques.

Suite à l’idée que la lumière pouvait avoir une nature corpusculaire (qui permit d’expliquer l’effet photoélectrique), en postulant l’existence des photons, sorte de grains d’énergie lumineuse avec des qualités de particule, Einstein considéra que la fréquence ν de cette lumière, est liée à l’énergie E des photons par l’égalité : E = hν dite égalité d’Einstein -Planck où h est la constante de Planck (6,626×10-34Js) et ν la fréquence de l’onde. Ici l’énergie prend un caractère discontinu alors que l’énergie de l’onde électromagnétique dans la théorie de Maxwell ne dépendait que du champ électrique et magnétique de manière continue. (Module du vecteur de Poynting) Généralisant cette approche, en 1924, dans sa thèse, Louis de Broglie affirma que toute matière (et pas seulement la lumière) a une nature ondulatoire. Il associa la quantité de mouvement p d’une particule à une longueur d’onde λ, appelée longueur d’onde de Broglie : p = h/ λ . En considérant que λ = c/ν , et que p = E/c , on retrouve la formule d’Einstein – Planck : E = hν Ce sont de ces considérations que naquit l’idée de dualité onde/corpuscule. Elles furent confirmées par plusieurs expériences et De Broglie reçut en 1929 le prix Nobel de physique pour son hypothèse, qui influença profondément la physique de cette époque. La mise en évidence expérimentale de cette dualité onde/particule pour le photon de lumière a été faite avec l’expérience de Young. Voir http://fr.wikipedia.org/wiki/Dualit...

La mécanique ondulatoire n’avait pas les outils nécessaires pour expliquer les résultats de l’expérience : c’est la mécanique quantique qui lui succéda en apportant des outils supplémentaires qui l’ expliqua.

Suite aux travaux Schrödinger, Heisenberg, de Born et de Von Neumann, dans un livre publié en 1930, principes de la mécanique quantique, Dirac formalise les principes de la mécanique quantique.

5.2 – les principes de la mécanique quantique.

Quelles en sont les idées fondamentales ? Il est impossible de rendre correctement compte dans un langage courant de la totalité de ses principes de base, comme par exemple la règle de Born qui même, dans sa formulation technique initiale demande un effort de compréhension important pour tout étudiant ayant acquis les bases mathématiques et de physique théorique nécessaires. Nous nous référerons néanmoins à un ouvrage spécialisé : Principes de mécanique quantique de Blokhintsev . Éditions de Moscou)

Etablissons d’abord le lien avec la mécanique ondulatoire : "… Et en nous basant sur des données factuelles, nous pouvons poser que la probabilité de présence d’une particule est déterminée par l’intensité des ondes, c’est-à-dire par le carré de l’amplitude de psi" (p 49/675.)

A- La fonction d’onde psi.

(Ne disposant pas typographiquement de la lettre grecque ps nous la nommons comme telle.) La dualité onde – corpuscules fait émerger une contradiction entre le caractère local d’une particule et le caractère non local d’une onde. Cette contradiction est résolue en mécanique quantique par l’introduction de la fonction d’onde notée par la lettre grecque psi.

Cette fonction admet comme variables les différentes caractéristiques physiques d’une particule (notamment le photon) : coordonnées spatiales, impulsion, énergie, etc. Mais les valeurs de ces variables ne sont pas directement observables : elles sont le résultat d’un traitement statistique d’un grand nombre de mesures pour tenter de les évaluer. La fonction d’onde est solution de l’équation de Schrödinger, équation fondamentale de la mécanique quantique.

Pour plus de détails : http://fr.wikipedia.org/wiki/%C3%89...

B - Le principe de superposition des états quantiques.

Un faisceau lumineux arrivant sur un cristal est diffracté en plusieurs faisceaux pouvant ensuite interférer. Ce champ d’onde est représentable par une seule fonction d’onde mais on peut associer à chaque faisceau une fonction d’onde particulière. Par principe de superposition des états, la fonction d’onde du rayon incident est une combinaison (linéaire complexe si l’on utilise le langage mathématique) des différentes fonctions d’onde des rayons diffractés.

À partir de cet exemple, on peut mieux comprendre le principe de superposition des états :"lorsqu’un système (que ce soit une particule ou un ensemble de particules) est susceptible de se trouver dans un état représenté par la fonction d’onde psi 1 ainsi que de se trouver dans un autre état représentable par la fonction psi 2, il peut également se trouver dans un état représenté par la fonction d’onde Psi tel que Psi =c1.psi1 + c2.psi2 c1 et c2 étant des nombres complexes caractérisant les amplitudes et les phases des états particuliers psi1 et psi 2" (idem. p.51)

C- conséquences du principe de superposition quantique.

- L’intrication quantique, forme de superposition d’états quantiques, est un phénomène observé dans lequel l’état quantique de deux objets doit être décrit globalement, sans pouvoir séparer un objet de l’autre, bien qu’ils puissent être spatialement séparés.

Lorsque deux systèmes – ou plus – sont placés dans un état intriqué, il y a des corrélations entre les propriétés physiques observées des deux systèmes qui ne seraient pas présentes si l’on pouvait attribuer des propriétés individuelles à chacun des deux objets S1 et S2. En conséquence, même s’ils sont séparés par de grandes distances spatiales, les deux systèmes ne sont pas indépendants et il faut considérer S1+S2 comme un système unique. les systèmes sont dits alors non séparables.

Pour plus de détails : http://fr.wikipedia.org/wiki/Intric... Cette conception résout le paradoxe EPR et élimine l’hypothèse d’Einstein sur l’existence de cachées. Si l’on veut conserver l’hypothèse d’une limite à la vitesse de transmission d’une information (c, vitesse de la lumière), sans quoi les principes de relativité et de causalité relativiste seraient violés, il faut admettre que deux particules créées conjointement, même géographiquement séparées, continuent à se comporter comme un système unique (non-localité du système) dès lors qu’elles sont dans un état intriqué. voir : http://fr.wikipedia.org/wiki/Princi...)

- Principe d’exclusion de Pauli.

Un cas particulier du principe de superposition est celui de la superposition de deux états identiques. deux ou plusieurs particules peuvent-elles occuper le même état quantique simultanément ?

Certaines le peuvent. Ce sont celles qui se répartissent selon la statistique Bose-Einstein : ce sont les bosons, comme par exemple le photon. il existe dans l’univers 12 types de boson. D’autres ne peuvent pas partager le même état quantique : elles s’excluent mutuellement (c’est le principe d’exclusion de Pauli découvert en 1925). Leur répartition obéit à la statistique de Fermi – Dirac : ce sont les fermions, comme par exemple l’électron. L’univers compte 12 ψ la fonction d’onde associée à chaque particule : Ceci repose sur une propriété de symétrie : la symétrie ou l’invariance par permutation de particules identiques ou principe d’indiscernabilité.

Soit un système de deux particules identiques, appelées 1 et 2, observées, l’une au point x et l’autre au point y. L’invariance par permutation signifie simplement que la probabilité d’observer 1 en x et 2 en y est égale à la probabilité d’observer 2 en x et 1 en y : Comme la probabilité est proportionnelle au carré du module de la fonction d’ond l’invariance par permutation implique l’égalité │psi(1,x ; 2,y)│² = │psi(2,x ; 1,y)│² ce qui implique de résultats possibles : psi(1,x ; 2,y) = - psi(2,x ; 1,y) et psi(1,x ; 2,y)=p si(2,x ; 1,y)

Dans le premier cas (fermions) la fonction d’onde associée à la particule est antisymétrique et dans le second cas (bosons) la fonction d’onde est symétrique.

Voir sur ce point : fermions et bosons http://www-subatech.in2p3.fr/ photo...

Il n’existe donc que deux grands types de particules élémentaires dans l’univers : les fermions qui en constituent les briques et les besoins qui en constituent le ciment en véhiculant les champs de force ou interactions les liant.

Le principe d’exclusion de Pauli a des conséquences considérables. Il est le fondement de la logique binaire qui sous-tend toute l’électronique et l’linformatique ; il assure l’impossibilité pour un corps composé de pouvoir en traverser un autre, ce qui nous empêche de traverser un mur sans encombre et sans décombres, etc.

Le principe de superposition est un concept qui n’est applicable qu’à l’échelle atomique. Pour reprendre l’image humoristique du physicien Schrödinger, un chat ne peut être à la fois dans l’état mort et dans l’état vivant. Cela nous conduit à examiner le paragraphe suivant.

Du point de vue mathématique, la cohérence quantique s’exprime dans le cadre de l’espace de Hilbert, une espace vectoriel de fonctions complexes dans lequel est défini un produit scalaire qui est un nombre complexe. Les états quantiques sont représentés par des vecteurs de l’espace de Hilbert, et les observables par des opérateurs linéaires agissant sur ces vecteurs. La cohérence quantique traduit le principe de superposition : une combinaison linéaire de vecteurs est un vecteur ; une combinaison linéaire d’opérateurs est un opérateur

- L’effondrement de la fonction d’onde et la décohérence quantique.

La mesure d’un objet quantique par un appareil a pour effet de ne saisir que la probabilité d’une valeur associée à un état parmi l’ensemble des états superposés. Le paquet d’ondes ne peut être mesuré que sous son état corpusculaire : par exemple l’impact d’un photon sur un écran. On parle alors de réduction du paquet d’ondes et d’effondrement de la fonction d’onde.

La théorie de la décohérence explique que cet effondrement est plus généralement causé par les multiples interactions complexes de l’objet quantique avec son environnement, sans qu’il soit nécessaire de faire appel en particulier à un appareil de mesure. Cette interaction provoque des déphasages de plus en plus nombreux avec le temps entre les différentes fonctions d’onde élémentaires des états superposés. Seuls restent observables les états correspondant aux états observables macroscopiquement.

Hugh Everett en 1957 élabore une théorie dite des univers multiples considérant "qu’en réalité", il y a persistance des états de superposition si l’on considère plusieurs univers. Cela signifie que, quand une mesure quantique peut donner plusieurs résultats différents, l’ensemble des superpositions de toutes les valeurs possibles de la mesure coexistent dans un multivers, mais nous n’aurions conscience que d’une seule éventualité car notre conscience (qui est par hypothèse, dans cette théorie, un phénomène purement physique) se retrouve quantiquement intriquée avec un et un seul résultat de la mesure.

Pour plus de détails techniques on peut se reporter à : http://fr.wikipedia.org/wiki/D%C3%A...

http://fr.wikipedia.org/wiki/Probl%...

- La théorie de l’information quantique. informatique quantique

Une application de la notion de superposition des états et de la des décohérence quantiques est la théorie de l’information quantique. L’unité d’information n’est plus le bit ( 0 ou 1) mais le Qbit.

Pour prendre une comparaison imagée, un Qbit peut être représenté par un disque (ou une sphère ) duquel par une flèche centrée. Si elle est pointée vers le haut, la valeur d’information est 1 et si elle est pointée vers le bas la valeur vaut 0. Entre ces deux possibilités, la flèche peut avoir une position intermédiaire qui est alors interprétée comme une superposition d’états 0 ou 1 ou en termes de probabilité d’avoir la valeur 0 ou la valeur 1. On peut ainsi concevoir des portes logiques quantiques comme on le fait en informatique avec les portes logiques booliennes.

Le support de l’information peut être un photon et il a été possible de concevoir des ordinateurs photoniques dont la puissance de calcul serait théoriquement beaucoup plus élevée que les ordinateurs électroniques. Néanmoins la réalisation d’ordinateurs quantiques pose de considérables problèmes notamment sur la qualité des mémoires à mettre en œuvre et des dispositifs permettant le maintien suffisant de la superposition des états avant la décohérence.

Pour plus de détails : http://fr.wikipedia.org/wiki/Inform... http://fr.wikipedia.org/wiki/Calcul... http://fr.wikipedia.org/wiki/Inform... http://www.dirk-k-lange.de/document...

D - Principe d’indétermination (ou d’incertitude) de Heisenberg.

(On nommera ici en toutes lettres pi ne disposant pas du caractère typographique en lettre grecque correspondant.) Ce principe, énoncé par Heisenberg en 1927, révèle qu’au niveau atomique, il est impossible de mesurer simultanément avec la précision que l’on veut la position et la vitesse (ou la quantité de mouvement p = mv) d’une particule, ce qui s’écrit mathématiquement :

Δx.Δp ≥ h/2pi , où x désigne la position, p la quantité de mouvement de la particule eth la constante de Planck.

Il existe une relation d’incertitude similaire concernant le temps t et l’énergie E. Δt.ΔE ≥ h/2pi

Sur de très courtes durées l’incertitude sur la mesure de l’énergie est très grande, c’est-à-dire que l’énergie peut fluctuer considérablement sur de très courtes durées ! Cette relation permet de justifier les fluctuations d’énergie apparaissant dans le vide quantique. Dans une petite région spatio-temporelle définie par Δt et Δx, les lois de conservation de l’énergie et de l’impulsion peuvent être violées, avec des erreurs ΔE et Δp reliées à Δt et Δx par les inégalités de Heisenberg.

Pour une présentation complète et plus abstraite voir : http://fr.wikipedia.org/wiki/Principe_d’incertitude

Les particules pour lesquelles ces lois de conservation seraient violées mettraient en jeu une action inférieure au quantum d’action et elles ne peuvent donc être réels ; on les qualifie de virtuelles.

Plus on veut mettre en évidence des particules de taille de plus en plus petite, plus la résolution est élevée , plus est petite la région d’espace-temps à explorée. Alors, plus grandes peuvent être les violations des lois de conservation de l’énergie-impulsion, plus virtuels sont les processus qu’il faut prendre en considération. D’un point de vue expérimental on peut explorer les très courtes distances spatio-temporelles par exemple en provoquant des collisions entre particules à très haute énergie.

Ces inégalités ont remis en cause la notion de déterminisme qui existait en mécanique classique. Ainsi, la détermination même de trajectoire d’une particule peut devenir floue.

Une application intéressante et assez simple de ces inégalités est la relation entre la limitation de la mesure de la position d’une particule et la longueur d’onde de Compton. Voir : http://fr.wikipedia.org/wiki/Longueur_d’onde_de_Compton

5.3 - Les grandeurs fondamentales de la mécanique quantique.

Les particules étudiées en mécanique quantique sont caractérisé par : la masse m exprimable aussi en énergie, la charge électrique q, la durée de vie, le spin, l’hélicité, la charge faible, la charge de couleur, le nombre baryonique.

Pour expliquer un certain nombre de phénomènes apparaissant au niveau atomique ou subatomique, les outils de de la physique classique étaient insuffisants. Par exemple pour expliquer l’effet Zeeman anomal, la notion théorique de spin a été introduite par Pauli en décembre 1924. Elle a ensuite été proposée pour les électrons par Uhlenbeck et Goudsmit en 1925 pour rendre compte des spectres atomiques, notamment le dédoublement des raies spectrales du sodium. Nous assisterons plus particulièrement sur cette notion fondamentale.

Le spin

La représentation du spin en termes de rotation d’une particule sur elle-même est une image approximative car Wolfgang Pauli avait déjà montré en 1924 qu’ en raison des dimensions connues de l’électron, une rotation de l’électron nécessiterait une vitesse tangentielle de rotation à son équateur supérieure à la vitesse de la lumière.

La notion de spin est certes reliée à la notion de rotation puisqu’il s’agit en fait du moment cinétique angulaire intrinsèque et quantifié d’une particule. Néanmoins, sa véritable définition dépasse largement le cadre de cet article car elle met en jeu des outils mathématiques d’un niveau dépassant largement celui de l’enseignement secondaire. http://fr.wikipedia.org/wiki/Spin http://fr.wikipedia.org/wiki/Moment...

Le texte suivant d’un spécialiste de la physique des particules montre l’extrême importance de ce concept de spin et a l’avantage de ne pas utiliser de formalisme mathématique :

"La valeur de spin peut être entière ou semi entière. De la sorte, la fonction d’onde d’une particule à spin est un ensemble de plusieurs fonctions différentes de coordonnées, comportant ainsi des composantes multiples.

- Pour les particules de masse non nulle, le nombre de composantes est égal au nombre de projections du spin, c’est-à-dire à 2s + 1, où s est Ia valeur du spin.

La fonction d’onde la plus simple, qui ne compte qu’une composante, s’emploie pour décrire une particule de spin nul. (dans ce cas, la particule est dite scalaire) Une particule de spin ½ possède deux états associés à deux projections éventuelles du spin : +l/2 et -1/2. Une telle particule est donc décrite par une fonction d’onde à deux composantes. La description d’une particule de spin 1 (qui compte trois projections : +1, 0, -1) utilise une fonction â trois composantes. Lorsque le spin d’une particule est 3/2 (quatre projections 3/2, 1/2, -1/2, -3/2), sa description est donnée par une fonction à quatre composantes.

Les fonctions d’onde dépendent des coordonnées des particules. Il s’ensuit que dans les transformations de Lorentz les fonctions d’onde elles-mêmes changent de pair avec les coordonnées. II s’avère alors que le changement des fonctions d’onde diffère sensiblement suivant que leur spin est entier ou demi-entier.

Dans les transformations de Lorentz, les fonctions d’onde des particules de spin entier s = 0, 1, 2, .. . changent de la même façon que les grandeurs quadridimensionnelles correspondantes, c’est-à-dire :
- comme des scalaires (s = 0).
- comme des vecteurs (s = 1)
- et comme des tenseurs (s > 2). C’est pourquoi ces fonctions d’onde, ainsi que les particules qui leur correspondent sont dites scalaires (s = 0), vectorielles (s = 1), etc.

Les fonctions d’onde des particules de spin demi-entier s : : 1/2, 3/2, 5/2, etc., changent d’une autre façon. Ces fonctions d’onde se nomment spineurs et les particules qu’elles décrivent sont dites spinorielles. Ce qui distingue les spineurs,_ c’est que leur rotation de 2π (1 tour) autour d’un axe quelconque fait qu’ils changent de signe, alors que les fonctions d’onde des particules de spin entier reprennent leur valeur initiale.

Les particules de spin entier obéissent à la statistique de Bose- Einstein et de ce fait s’appellent bosons, alors que les particules de spin demi-entier obéissent à la statistique de Fermi-Dirac et de ce fait se nomment fermions.

Chacune des fonctions d’onde qui décrivent les particules de spin donné vérifient une équation définie covariante par –rapport à la transformation de Lorentz (on dit covariante pour une équation qui après le changement des coordonnées et Ia transformation des fonctions ne change pas de forme)…."

Source : Physique des particules élémentaires p. 22, de N. Nélipa. Éditions de Moscou. 1981 – 708 p)

- Le nombre de projections de spin du photon et du graviton font exception du fait que leur masse est nulle et que leur vitesse est celle de la lumière. Malgré son spin égal à 1, le photon n’a que deux composantes de spin et non pas trois, et le graviton n’en possède que deux et non pas cinq.

Il est possible d’associer un spin à un noyau atomique. Le spin (à l’état fondamental) des particules composées de plusieurs particules élémentaires, comme le proto le neutron, tout noyau atomique ou atome, est constitué des spins des particules qui les composent auquel s’ajoute le moment cinétique orbital des différentes particules élémentaires9 :

Par exemple, le carbone 12 et l’oxygène 16 ont des noyaux de spin 0 , l’hydrogène et le fluor ont des noyaux de spin ½ , l’azote 14 a noyau de spin 1, etc. voir : http://www-phlam.univ-lille1.fr/pub...

Hélicité

On peut aussi caractériser une particule, ce qui est nécessaire dans l’étude de l’interaction faible, par son hélicité. Si le vecteur de spin est orienté parallèlement dans le sens du mouvement de la particule, on parle d’hélicité droite (positive), s’il est orienté dans le sens inverse du sens du mouvement, on parle d’hélicité gauche (négative) et le spin est dit anti parallèle.

Une particule peut avoir deux états d’hélicité si la particule peut être ramenée au repos et repartir dans le sens opposé. Ce n’est pas le cas du neutrino dont la vitesse est constamment celle de la lumière : cette particules n’a qu’un seul état d’hélicité. Ainsi, en 1958, Maurice Goldhaber, Lee Grodzins et Andrew Sunyar mettent en place une expérience qui démontre que l’hélicité du neutrino est négative (le spin pointe dans la direction opposée au mouvement).

Couleur

Un nucléon est composé de trois quarks. (On verra plus de détails dans la troisième partie). Pour expliquer la force de cohésion de ceux-ci dans chaque nucléon, on attribue à chaque quark une charge dite de couleur : rouge, bleu, vert. la chromodynamique quantique étudie ce type d’interaction de couleurs.

Saveur

Les découvertes successives de différents quarks ou leurs prévisions d’existence par les calculs théoriques ont amené les physiciens à introduire la notion de saveur : il existe 6 saveurs pour les quarks :

première génération : up (u) et down (d) c’est-à-dire haut et bas.

Deuxième génération : charmed (c) et strange (s) c’est-à-dire charme et étrange.

Troisième génération : top ou truth(t) et bottom (b) c’est-à-dire vérité et beauté

Nous verrons dans la troisième partie la signification de ces trois générations.

Isospin.

L’isospin a été suggéré par Werner Heisenberg en 1932 pour montrer que le proton et le neutron peuvent être traités comme deux particules distinctes constituant le nucléon. Il a introduit l’isospin pour expliquer le fait que l’intensité de l’interaction forte entre deux protons est sensiblement égale à celle entre deux neutrons ou entre un proton et un neutron.

On na expliqué alors plus tard que l’invariance d’isospin de l’interaction forte est due au fait que les particules ne diffèrent que par l’échange d’un quark haut par un quark bas ou vice-versa. Elles se comportent sensiblement de la même façon du point de vue de cette interaction, et ceci indépendamment de la saveur de la particule. Ce n’est pas le cas de l’interaction électromagnétique et de l’interaction faible qui dépendent de la saveur des quarks. Le neutron et le proton sont associés au doublet (similaire au spin 1/2) de SU(2), et les pions sont associés au triplet (similaire au spin 1) de SU(2).

Nombre baryonique et nombre leptonique.

Le nombre baryonique B d’une particule est égal au tiers du nombre de quarks diminué du nombre d’antiquark qui le composent. Par exemple, un nucléons étant composée de trois quarks son nombre baryonique vaut 1. On définit aussi le nombre leptonique L qui vaut +1 pour un lepton, -1 pour un antilepton et 0 pour toute autre particule. Nous verrons dans le chapitre suivant plus en détails l’utilisation de ces grandeurs quantiques.

Hypercharge.

L’hypercharge faible Y est donné par la formule Y = 2 (Q – T3) où Q est la charge électrique et T3 est la troisième composante de l’isotspin. Cette notion qui date des années 60 n’est plus utilisée pour les interactions fortes en raison d’une nouvelle classification qui s’est établie depuis cette époque et que nous verrons dans la troisième partie.

5.4 - Notion d’antiparticules et symétries discrètes.

- Le concept d’antiparticule a été inventé par Dirac en 1928 lorsqu’il avait essayé de rendre relativiste la mécanique quantique de l’électron. Il avait posé le problème des états d’énergie négative. il avait essayé de définir le vide quantique par ce que l’on appelle maintenant la mer de Dirac. Voir http://fr.wikipedia.org/wiki/Mer_de... .

On résout le problème des états d’énergie négative en supposant que ces états ne se propagent qu’en remontant le temps, et en ré interprétant une particule d’énergie négative qui remonte le temps comme une antiparticule d’énergie positive qui le descend. Particule et antiparticule doivent avoir la même masse, des charges opposées et de manière générale, tous les nombres quantiques opposés. Ainsi, pour que le formalisme de la théorie quantique des champs soit compatible avec la relativité et la causalité, il a fallu inventer un concept nouveau, celui d’antiparticule

La première antiparticule observée, un antiélectron (positron) produit par les collisions des rayons cosmiques dans l’atmosphère, fut découverte en 1933 par Carl David Anderson.

Pour qu’une particule admette elle-même comme antiparticule, il faut qu’elle soit neutre (par exemple le méson pi neutre) mais ce n’est pas suffisant car le neutron admet un anti neutron distinct.

Les particules de masse nulle comme le photon, les gluons et le graviton sont antiparticule d’elles-mêmes. En revanche le cas du neutrino n’est pas tranché.

Une antiparticule a la même masse et le même spin que la particule correspondante mais a une charge électrique et une hélicité de signe contraire. On appelle particule de Dirac une particule qui diffère de l’antiparticule correspondante. Une particule de Majorana est une particule qui est sa propre antiparticule.

Voir : http://fr.wikipedia.org/wiki/Partic...

L’antiproton a été découvert en 1955 et l’antineutron en 1956.

Lorsqu’une particule de masse m rentre en contact avec son antiparticule correspondante, elles s’annihilent pour former une ou plusieurs particules quelconques, mais qui totalisent une énergie égale à celle initiale, et qui conservent un certain nombre de caractéristiques comme la charge électrique totale qui doit donc être nulle. En particulier, il peut y avoir annihilation par conversion d’énergie en photons.

Inversement un photon à haute énergie peut créer un couple électron – positron , dont il faut tenir compte quand on étudie le vide quantique.

Pour voir une animation concernant ce phénomène de matérialisation : http://www.physique.unicaen.fr/ tic...

On n’a jamais observé dans la nature d’antiatomes et il n’a pas été encore possible de synthétiser un noyau même léger avec son cortège d’anti électrons. Il a été néanmoins possible de synthétiser des anti noyaux. Le plus lourd est le noyau d’anti hélium 4 synthétisés en mars 2011. voir : http://www.futura-sciences.com/fr/n... http://fr.wikipedia.org/wiki/Antipa...

- Symétries discrètes CPT et leur violation.

On appelle symétrie, en physique, toute transformation inversible d’un état physique qui laisse invariante une ou plusieurs propriétés du système.

"On appelle conjugaison de charge, notée C l’opération qui consiste à transformer une particule en son antiparticule. (A cette opération est associé un opérateur qui agit dans l’espace de Hilbert des états).

De même T est l’opération (ou l’opérateur associé) de renversement du sens du temps.

Pour être complète, la résolution du problème des états d’énergie négative, nécessite une troisième opération (ou opérateur), la parité d’espace, notée P qui consiste à changer de signe les coordonnées spatiales.

C, P et T sont appelés des symétries discrètes, parce qu’il s’agit d’opérations de symétries dont le carré vaut 1 (répéter l’opération amène à l’état initial).

En théorie quantique des champs, le théorème CPT stipule que toutes les interactions sont invariantes par l’opération CPT qui consiste à remplacer chaque particule par son antiparticule, à changer de signe toues les coordonnées d’espace et à changer le sens du temps.

Il s’agit d’une prédiction que la théorie quantique des champs est conduite à faire si elle veut prétendre à rendre compte de la relativité restreinte, de la mécanique quantique et de la causalité dans les processus élémentaires. Jusqu’à présent, ce théorème n’a subi aucune contradiction expérimentale.

Le théorème CPT ne dit rien sur l’invariance par chacune des opérations prise séparément"

source : Tannoudji . Histoire du modèle standard http://exvacuo.free.fr/div/Sciences...).pdf

Alors que les interactions électromagnétique et nucléaire forte semblent invariantes par chacune des trois symétries discrètes, l’interaction nucléaire faible viole les symétries C et P. Sakharov a émis l’idée que la brisure de la symétrie CP fût à l’origine du léger déséquilibre matière/antimatière dans l’univers.primordial, nécessaire à la dominance, dans l’univers actuel, de la matière sur l’antimatière

5.5 - La théorie quantique des champs.

"La théorie quantique des champs permet de réconcilier les deux grandes approches de la physique classique, qui semblaient totalement incompatibles, celle du point matériel et celle du champ.

Le concept de champ quantique réconcilie les concepts classiques de particules de matière et de champs d’interaction et introduit le concepts nouveaux de champs de matière et de particules d’interaction… La démarche de la théorie quantique des champs, dans laquelle les propriétés de symétries jouent un rôle fondamental, est une démarche d’unification des processus au sein de chaque interaction fondamentale et des interactions fondamentales au sein de grandes synthèses théoriques, comme la théorie électrofaible de Glashow, Salam et Weinberg ou la grande unification de toutes les interactions fondamentales." (Tannoudji)

La notion classique de champ de forces ne permet pas de savoir quel est le support matériel de l’action de ce champ. La théorie quantique des champs considère que le vecteur de transmission de la force est constitué d’une particule matérielle – un boson – qui est émise et absorbée par les particules en interaction – les fermions (leptons et quarks). Cette particule intermédiaire est aussi appelée quantum de champ.

Plus grande est son énergie ou sa masse, plus brève est son existence et courte sa portée. Dans le cas d’une masse nulle, la portée de l’interaction peut-être infinie : c’est le cas du photon dans l’interaction électromagnétique et du graviton pour l’interaction gravitationnelle.

À chaque type d’interaction : électromagnétique, électrofaible, forte, gravitationnelle correspond un type de boson particulier.

- le photon est le vecteur de l’interaction électromagnétique entre charges électriques. - les bosons Z0, W+ et W- de l’interaction faible entre charges faibles. - les huit gluons de l’interaction forte entre charges de couleur. - à cela il faut ajouter le boson de Higgs dont la découverte a été annoncée en juillet 2012 - le graviton pour l’interaction gravitationnelle, entre masses, prévue par la théorie, mais dont l’existence n’est pas encore confirmée expérimentalement.

Tous les bosons élémentaires ont un spin de valeur 1 (bosons vectoriels) sauf le boson de Higgs de spin 0 (boson scalaire) et le graviton qui devrait avoir un spin de valeur 2. Les bosons précédents de spin 1 s’appellent boson de jauge

Outre ces bosons élémentaires, il existe des boson composites, de spin 0 ou1, responsables d’interaction entre particules composites.

Par exemple les mésons pi (pions) composés d’un quark et d’un antiquark. Les nucléons n’ayant pas de charge de couleur (annulation de la somme des charges des quarks le composant) n’interagissent pas par échange de gluons mais par échange de pions. Cette interaction peut changer la nature des nucléons selon qu’elle implique un pion neutre ou chargé : un neutron ou proton émettant un pion neutre garde sa nature, mais un neutron émettant un pion négatif ou un proton émettant un pion positif donnent respectivement un proton et un neutron6. La théorie quantique des champs effective décrivant l’interaction entre pions et nucléons est appelé l’interaction de Yukawa.

On peut aussi considérer comme bosons - atome d’hélium 4 - état de deux électrons formant une paire de Cooper dans les matériaux supraconducteurs -exciton (quasi-particule que l’on peut voir comme une paire électron-trou liée par des forces de Coulomb). - polariton (quasiparticules issues du couplage fort entre une onde lumineuse et une onde de polarisation électrique.) Voir : http://fr.wikipedia.org/wiki/Boson

En théorie quantique des champs, on représente graphiquement l’interaction et la désintégration des particules par un diagramme de Feynman. Pour plus de détails voir : http://fr.wikipedia.org/wiki/Diagra...

Certains sommets de ces diagrammes s’appellent vertex d’interaction. http://teachers.web.cern.ch/teacher... http://lpnhe-d0.in2p3.fr/vlimant/Th...

On appelle théorie de jauge une théorie des champs basée sur un groupe de symétrie locale, appelé groupe de jauge, définissant une « invariance de jauge ». Le prototype le plus simple de théorie de jauge est l’électrodynamique classique de Maxwell. L’expression « invariance de jauge » a été introduite en 1918 par le mathématicien Hermann Weyl Voir : http://bio.m2osw.com/gcartable/phys...

5.6 -L’électrodynamique quantique (QED)

L’électrodynamique quantique est une théorie quantique des champs de l’électromagnétisme

Historiquement, la description classique de l’électromagnétisme est enrichie d’un nouvel objet géométrique qui traduit la variable supplémentaire qu’est la phase de la particule. Cette variable supplémentaire correspond une équation qui détermine cette variable. On obtient alors une version étendue des équations de Maxwell (qui incorpore la dérivation covariante associée à la phase).

La force de véhiculée entre charges électriques (par exemple force de Coulomb entre protons et électrons ou entre électrons) est due à un échange de photons de masse nulle et de charge nulle..

Mais cela pose un problème de conservation d’énergie. En effet, si une particule A émet une particule B (ici un photon) qui est absorbée par une particule C, la particule A perd une énergie correspondant à B et la particule C gagne l’énergie correspondante véhiculée par la particule B, selon le principe de la conservation de l’énergie.

Or, l’expérience montre que l’électron ou le proton gardent la même masse ou énergie pendant ce transfert du photon. On explique ce phénomène par le fait que ce transfert se réalise dans un temps suffisamment court pour qu’il soit compatible avec l’inégalité temps – énergie de Heisenberg qui permet une violation momentanée et locale de la loi de conservation de l’énergie. Le photon ici mis en jeu n’est pas un photon de lumière mais un photon virtuel.

Ce photon virtuel peut résulter de l’annihilation d’une paire électron – positron virtuels. Les électrons virtuels sont repoussés par la charge de l’électron et les positrons attirés

Il faut donc concevoir un électron comme entouré d’un écran de photons virtuels et de paires d’électrons – positons virtuels. De sorte qu’en réalité, le soi-disant vide entre électrons et noyau n’est pas vide ! Le vide quantique est peuplé de particules virtuelles. La représentation planétaire de l’atome reste donc très approximative, voire anthropocentrique.

Non seulement le noyau est entouré d’un nuage d’électrons, mais chaque électron est entouré d’un nuage de particules virtuelles. Et nous verrons que chaque quark composant les nucléons du noyau sont entourés de nuages de gluons et d’autres particules virtuelles.

La constante de couplage en QED n’est pas la charge. La constante de couplage est un paramètre sans dimension qui traduit l’intensité de l’interaction (du champ associé) produite par une charge q. La valeur mesurée de cette constante (qui en réalité varie avec l’échelle de mesure, la résolution) ne correspond pas à la valeur de la charge nue (sans écran) de l’électron qui serait théoriquement infinie, mais à la valeur mesurée avec écran.

A basse énergie (disons en dessous de la masse de l’électron) la constante de couplage de QED vaut 1/137. A cause des fluctuations quantiques qui polarisent le vide, à plus haute énergie cette constante augmente (logarithmiquement avec l’énergie) et vaut par exemple 1/128 pour des énergies de l’ordre de la masse du boson Zo (91 GeV). L’interaction électromagnétique conserve la charge des particules

Mathématiquement, cette théorie a la structure d’un groupe abélien avec un groupe de jauge U(1). Le chiffre 1 signifie que le photon n’interagit qu’avec une seule particule à la fois. Le photon conserve le type de nature de la particule en interaction.

5.7 - La chromodynamique quantique ou QCD (pour Quantum Chromodynamics

Elle décrit l’interaction forte. Elle fut proposée en 1973 par H. David Politzer, Frank Wilczek et David Gross pour comprendre la structure des hadrons (baryons comme les protons, neutrons et particules similaires, et d’autres particules comme les mésons. (Plus de détails dans le chapitre 3 ). Ils reçurent le prix Nobel de physique en 2004 pour ces travaux.

Peu après la découverte de l’existence des quarks en 1964, on a introduit la notion de charge de couleur pour expliquer comment les quarks pouvaient coexister dans les hadrons

Par exemple, comment expliquer les champs de force réunissant et confinant les trois quarks composant un nucléon ? On n’a alors établi qu’il existait des particules support de cette force qui sont échangés entre les quarks : ce sont les huit gluons, qui, comme le photon ont une masse nulle et une charge électrique nulle.

On peut dire qu’une couleur de quark peut prendre 3 valeurs : rouge, vert ou bleu et qu’un antiquark peut prendre 3 anticouleurs : antirouge, antivert et antibleu. Le gluon véhicule donc l’interaction de couleur. Comme le quark, il possède une couleur. La situation est donc ici nettement plus complexe que dans le cas du photon qui n’agit que sur un seul type de charge et ne transforme pas celle-ci.

Un gluon peut transformer la charge de couleur d’un quark : par exemple transformer un quark rouge en un quark bleu.

Pour décrire ce possible changement de couleur, la description précédente doit être affinée.

En réalité, chaque couleur se projette en trois composantes. Désignons les couleurs rouge, vert, bleu par leur initiale R,V,B. On note ces trois composantes : R-V ,V-B et B-R qui prennent chacune, selon la couleur quark, les valeurs -½ ,0, ½ . Ainsi :

- Un quark est considéré comme rouge si ses trois composantes de couleurs sont : R-V de valeur ½ ,V-B de valeur 0 et B-R de valeur - ½ . La charge de couleur totale doit être nulle. En examinant cet exemple, on voit que la valeur 0 correspond à l’absence de R, l’on prend les valeurs ½ pour les deux autres cas et on place le signe correspondant.

- pour un quark vert : R –V de valeur – ½ ; V –B de valeur ½ ; B –R de valeur 0

- pour un quark bleu : R –V de valeur 0 ; V –B de valeur - ½ ; B –R de valeur ½ Pour chaque couleur, le total des valeurs de charge doit valoir 0

Pour obtenir la charge de couleur d’un antiquark, il suffit de changer le signe de chacune des composantes du quark correspondant. Ainsi, les composantes d’un antiquark rouge sont de valeurs : R-V de valeur - ½ ,V-B de valeur 0 et B-R de valeur ½ . La charge de couleur totale est toujours nulle.

Comme les quarks, chaque gluon possède ces trois composantes de couleur. Il n’existe deux gluons conservant la charge de couleur d’un quark : on les note G1 et G2 dont la valeur de charge de chacune des composantes est égale à 0.

Le gluon transformant un quark rouge en un quark vert est noté ici Gr >v . Sa valeur de couleur est calculée de manière à ce que la valeur de couleur de chaque composante du quark émetteur soit conservée. Ainsi, la composante R –V passant de la valeur ½ à la valeur – ½ , la composante R –V du gluon doit être +1 de manière à avoir la conservation de la valeur ½ .

Pour la composante V – B, la valeur de charge du gluon doit être de – ½ de manière à conserver la valeur 0. Etc.

On définit ainsi les trois composantes de couleur de chacun des six gluons : Gr>v ; : Gv>r ; Gv>b ; Gb>v ; Gr>b ; Gb>r. On ne donne pas ici la valeur de chacune des composantes de couleur de ces gluons qui ne peuvent être que -1 ; - ½ ; + ½ ; +1. Pour chacun de ces gluons, la valeur de charge de couleur doit être égale à 0, comme pour les quarks.

D’une manière analogue à ce que l’on a vu ci-dessus concernant un électron enveloppé d’un nuage de photons virtuels et de paires d’électrons – positrons virtuels polarisés, chaque quark baigne dans un océan de gluons virtuels, de paires de quarks et antiquarks virtuels ; les antiquark virtuels polarisés s’accumulent autour de la charge de couleur réelle du quark : ils forment un écran mais le nombre de gluons virtuels chargés est prédominant sur les antiquarks virtuels : il en résulte un étalement spatial de la charge de couleur du quark.

Contrairement à la situation de l’électron en électrodynamique quantique, plus la distance au quark est petite, plus la charge de couleur diminue et tend vers zéro. On dit alors que les quarks sont asymptotiquement libres. Contrairement à la force électromagnétique entre charges électriques, la force de couplage entre charges de couleur décroît avec la diminution de distance. Cela explique qu’il est impossible d’observer des quarks isolés.

On parle alors de confinement de couleurs ou de confinement des quarks dans les hadrons. http://fr.wikipedia.org/wiki/Confin...

La constante de couplage peut être évalué à 1 mais dépend aussi de l’échelle d’énergie adoptée http://www.sciences.ch/htmlfr/physa... http://www-subatech.in2p3.fr/ photo...

Le rayon d’action de la force de couleurs est de 2,5•10−15 m. Il n’existe pas de particules colorées nues, c’est-à-dire que la charge de couleur d’une particule doit être neutre (blanche). Ceci peut être obtenu soit en assemblant un quark d’une couleur avec un antiquark de l’anti-couleur opposée, ce qui donne un méson de nombre baryonique nul ; soit en combinant trois quarks chacun d’une couleur différente, ce qui donnera un baryon de nombre baryonique 1, ou encore en combinant trois anti-quarks donnant un anti-baryon de nombre baryonique -1. Il pourrait éventuellement exister une dernière possibilité consistant en 4 quarks et un anti-quark qui formeraient un pentaquark de nombre baryonique 1.

La formalisation mathématique de la chromodynamique quantique est le groupe SU (3) qui est un groupe de symétries associées à la conservation de la charge de couleur et à l’absence de masse des gluons. Les huit gluons sont des opérateurs qui transforment les 3 couleurs les unes en les autres.

5.8 - Théorie quantique de l’interaction faible.

En 1934, Enrico Fermi élabora une théorie afin d’expliquer ces phénomènes : la radioactivité bêta est le résultat de la désintégration d’un neutron en un proton, un électron et un neutrino. Pour la radioactivité bêta +, c’est un proton qui se désintègre en un neutron. Cette désintégration est déclenchée par une nouvelle force nucléaire faible, mais la théorie de Fermi ne permet pas d’expliquer son origine.

L’interaction faible affecte toutes les catégories de fermions connues, à commencer par les électrons, les quarks et les neutrinos.

L’interaction faible permet à tous les leptons et tous les quarks d’échanger de l’énergie, de la masse et de la charge électrique, leur permettant de changer de famille et de saveur.

Les physiciens ont donc introduit la notion de charge faible pour ce type d’interaction. Les fermions participant à l’interaction faible s’organisent en trois familles (on dit générations) comportant chacune un doublet de leptons et un doublet de quarks. La force faible ne s’exerce que sur les particules d’hélicité gauche ou antiparticule d’hélicité droite.

L’électron possédant une hélicité droite et une hélicité gauche et ayant la possibilité de changer de direction, sa charge faible n’est pas conservée et est donc variable avec le mouvement de l’électron. Cette sensibilité à l’hélicité est donc la cause de la violation du principe de conservation de la parité et de la charge par interaction faible.

D’autre part la force faible s’exerce sur des doublets de particules de même hélicité. Par exemple sur un doublet de leptons de même génération comme l’électron et le neutrino électronique ou sur un doublet de quarks comme le quark u et le quark d.

Ainsi on attribue au neutrino à hélicité gauche la charge faible ½ et à l’électron d’hélicité gauche la cherche à faible – ½ .

Pour le quark u on attribue la charge faible ½ est au quark d la charge faible – ½. Pour les doublets des antiparticules correspondantes, il suffit de changer les signes des charges faibles.

Quant aux particules restantes d’hélicité droite : électron, quarks u et d, et leurs antiparticules d’hélicité gauche , elles ne forment pas de doublets mais restent isolées en singulets. Leur charge faible est nulle.

La matrice de Cabibbo-Kobayashi-Maskawa (matrice CKM) est une matrice (unitaire) qui contient les informations sur la probabilité de changement de saveur d’un quark lors d’une interaction faible ( http://fr.wikipedia.org/wiki/Matrice_CKM )

Entre 1961 et 1967, Sheldon Glashow, Steven Weinberg et Abdus Salam élaborèrent la théorie électrofaible, permettant d’expliquer à la fois l’interaction électromagnétique et l’interaction faible à l’aide d’échange de particules vecteurs.

Dans cette théorie, la radioactivité bêta est expliquée par la désintégration d’un quark d’un proton ou d’un neutron en un autre quark et la particule vecteur de l’interaction faible (le W, particule électriquement chargée). Puis ensuite le W se désintègre en un électron et un neutrino.

Mais, en outre, cette nouvelle théorie contenait aussi une nouvelle forme d’interaction faible non observée jusqu’alors, par échange d’une autre particule vecteur : le Zo, particule électriquement neutre. La première forme fut donc appelée interaction faible par courant chargé et la seconde interaction faible par courant neutre.

Ce n’est qu’en 1973 que des expériences réalisées au CERN sur la chambre à bulles Gargamelle avec un faisceau de neutrinos ont permis d’établir l’existence d’une interaction faible électriquement neutre. L’identification précise de ces trois bosons a été réalisée expérimentalement en 1983 – 84 au CERN.

L’idée de relier et d’unifier l’interaction électromagnétique et l’interaction faible résulte des constatations suivantes . Les bosonsW ont une charge faible et une charge électrique de même valeur. La charge électrique d’une particule est toujours égale à la somme de sa charge de faible et de la moyenne des charges électriques du singulet ou du doublet auquel appartient cette particule. Le photon et le boson Zo sont des médiateurs qui laissent inchangée la nature de la particule en interaction. On arrive à faire cohabiter ces deux bosons dans une même théorie : la théorie quantique électronfaible . C’est le mécanisme de Higgs qui explique la raison pour laquelle les bosons intermédiaires W et Zo ont une masse, contrairement au photon et aux gluons. On parle de brisure spontanée de symétrie.

En résumé, le support matériel de l’interaction faible sont les bosons W+, W - et Zo.

Du point de vue mathématique, a théorie électrofaible est une théorie quantique des champs fondée sur un groupe de jauge SU(2) X U (1) où SU(2) est le groupe de jauge correspondant à l’interaction faible dont les bosons de jauge sont les bosons W et le boson Zo tandis que le groupe de jauge U(1) est le groupe de l’électrodynamique quantique, dont le boson de jauge est le photon. La théorie est capable de prédire les masses des bosons à 80 GeV pour le W ± et à 90 GeV pour le Z 0 qui sont les bosons vecteurs de la force faible alors que le photon, vecteur de l’interaction électromagnétique, a une masse nulle

5.9 - La théorie de la grande unification. (GUT)

Cette théorie regroupe en un seul ensemble les trois types d’interactions : électromagnétique, faible et forte.

À "grande échelle"(10 -16 cm), la constante de couplage de l’interaction forte dans SU (3) est la plus grande, mais elle décroît le plus vite avec la distance,, l’interaction faible de SU (2) est plus petite mais décroît plus lentement avec la distance, la constante de couplage de l’interaction électromagnétique de U (1) est encore plus petite mais croit avec la distance.

Ces trois constantes de couplage convergent vers la même valeur lorsque les trois interactions sont unifiées, et il a été montré en 1974 que l’échelle d’unification de ces trois forces est de 10E-29 cm. et l’échelle de l’énergie correspondante est de 10E15 GeV , énergie encore hors de portée, et de loin, des accélérateurs ou collisionneurs de particules actuels.

Il existe différentes voies mathématiques pour réaliser cette unification : le groupe SU (5), solution qui semble la plus élégante, le groupe produit SU (3) X SU (2) XU (1). et SO(10).

Dans la représentation par le groupe SU (5), les cinq particules de base sont les composantes d’hélicité droite des trois couleurs du quark d (rouge, vert et bleu), le positron d’hélicité droite et l’anti neutrino électronique à hélicité droite.

Pour chacune de ces cinq particules, on attribue une valeur à quatre charges indépendantes : une charge électrique, une charge faible et une charges de couleur. Il faut 24 particules intermédiaires transporteurs de charges pour effectuer toutes les transitions entre ces cinq états de la matière. Quatre de ces particules sont neutres : le photon, le boson Zo, les gluons G1 et G2 qui ne transforment pas la nature des particules en interaction ; les W+ et W – qui transforment un positron en un anti neutrino ; et six gluons qui transforment les couleurs des quarks..

À ces 12 bosons s’en ajoutent 12 autres appelés bosons X et Y .responsables. des transformations mutuelles des leptons et des quarks. Chaque particule X.ou Y a une charge électrique, une charge de couleur et une charge faible ; les charges électriques peuvent prendre les valeurs 1/3 ou -1/3 et +4//3 ou -4/3.

Ce groupe d’unification permet donc une transformation de leptons en quarks et inversement, transformations qui n’existent pas dans le groupe SU (3).

De telles transformations n’ont jamais été encore observées pas plus que les particules X et Y. du fait que les énergies à mettre en œuvre sont trop élevées pour appareils actuels. Néanmoins, un certain nombre de prévisions de cette théorie comme la valeur du rapport des constantes de couplage ou le rapport de masse entre le quark b et le lepton tau ont été confirmées expérimentalement.

Le problème de la désintégration du proton . Cette théorie SU (5) prévoit un phénomène particulièrement intéressant : la désintégration du proton mais à une échelle de temps difficilement imaginable : 10E31 années alors que l’âge actuel de l’univers et de l’ordre de 10E10 années. Cette désintégration serait complète : la conversion de la masse du proton en énergie serait totale. Ainsi serait programmée "la mort de l’univers"

Selon le modèle SU (5), la désintégration se réaliserait sur le mode suivant : le proton se désintégrerait en un positron et un méson pi neutre. Plus en détails : le proton est composé de trois quarks u,u, et d. Un quark u se désintégrerait-on une particule X et un positron. La particule X serait absorbée par le quark d qui deviendrait alors un antiquark u. Cet antiquark formerait avec le quark u restant un pion neutre. Cette particule instable se désintègre en deux photons de haute énergie. Le positron se désintègre aussi en photons par collision avec un électron. Le rendement de la désintégration est de 100 % et bien supérieure à la fusion nucléaire.

Mais ce beau schéma demande une confirmation expérimentale qui n’a pas encore été faite. Sachant que 1000 tonnes de matière contiennent 5.10E32 protons, on peut espérer observer la désintégration de 10 protons environ par an dans une telle masse. Plusieurs dispositifs ont été mis en place depuis depuis plus de 25 ans pour détecter une telle désintégration. . . "Aujourd’hui, il y a, entre autres, le Super-Kamiokande, situé au Japon, qui continue de chercher la preuve de la décomposition du proton. Avec plus de 11000 photomultiplicateurs et sa taille démesurée pouvant contenir 50000 tonnes d’eau pure, le SK a pu repousser la vie du proton à plus de 1034 ans , sans détecter une désintégration. Des mesures plus actuelles encore permettent d’établir que τp > 10E36 ans . Cette valeur ne cesse d’être repoussée à des échelles incommensurables, ce qui diminue de plus en plus les chances d’observer l’instabilité du proton."

http://feynman.phy.ulaval.ca/marlea...).html

Une autre prévision de cette théorie : l’existence du monopole magnétique. Mais là encore, les expériences qui ont tenté de montrer son existence n’ont pas été totalement concurrentes.

Pour une présentations de la théorie SO (10) on peut se reporter le lien précédent.

La théorie de la grande unification demande donc encore des confirmations expérimentales.

Le mécanisme de Higgs dans le Modèle Standard nous donne des masses pour les particules W et Zo, médiatrices de l’interaction faible. De même, le mécanisme de Higgs dans les Théories de Grande Unification nous donne des bosons de jauge, qu’on appelle X et Y.

Pour plus de détails sur la théorie de la grande unification : http://www.diffusion.ens.fr/vip/tab... (ENS) http://ricardoamarino.files.wordpre... (Polytechnique)

5.10 - Champ et mécanisme de Higgs.

Le champ de Higgs (du nom de l’un de ses inventeurs, Peter Higgs), en nom complet champ de Brout-Englert-Higgs-Hagen-Guralnik-Kibble (champ BEHHGK), est un champ scalaire, indispensable au modèle standard pour expliquer la brisure de symétrie qui se manifeste par la portée infinie de la force électromagnétique et la portée très limitée de la force faible.

On remarque que le vecteur de la force électromagnétique – le photon – est de masse nulle alors que les vecteurs de la force faible – les bosons W et Zo ont des masses importantes. Une particule qui interagit avec ce champ de Higgs acquiert une masse : ce n’est pas le cas du photon mais c’est par exemple le cas des leptons (sauf les neutrinos) et des quarks. Les boson de la force faible interagissent avec ce champ et ont donc une masse. Dit autrement, dans ce mécanisme, la masse n’est pas une propriété intrinsèque d’une particule, mais une mesure de son interaction avec le champ de Higgs.

Pour plus de détails : http://www.podcastscience.fm/dossie...

Pour une explication imagée, voir la vidéo : http://www.vincentabry.com/quest-ce...

6 - Théories quantiques de la gravitation. Les théorie du Tout

Inclure dans une même théorie les quatre types d’interactions rencontrées dans l’univers : électromagnétique, faible, forte et gravitationnelle nécessite une quantification de la gravitation et une synthèse entre la mécanique quantique et la relativité générale dans une même théorie. Ces quatre forces sont susceptibles d’être unifiées à des niveaux d’échelle de 10E–33 cm, soit un ordre de grandeur du 1000 fois plus petit que celui de la grande unification de SU (5). Cela correspond à environ la longueur de Planck, considéré actuellement comme la limite du théoriquement mesurable. l’énergie d’échelle correspondante est de l’ordre de 10 19 GeV correspondant environ à la masse d’un grain de sable fin de 22 microgrammes.

Remarquons qu’en relativité d’échelle (ou relativité fractale) cette longueur est considérée comme limite de l’infiniment petit.

On ne fait ici que passer en revue le nom des différentes théories unificatrices, en indiquant les liens pour une description de chacune des théories. Elles font intervenir de nouvelles particules et parfois un nombre de dimensions d’univers important, 11 par exemple. Elles demandent aussi des confirmations expérimentales.

Théorie du tout : http://fr.wikipedia.org/wiki/Th%C3%...

Théorie de la super symétrie http://fr.wikipedia.org/wiki/Supers... http://www.lpthe.jussieu.fr/fed/Mas...

Théorie des cordes et des supercordes Cordes : http://fr.wikipedia.org/wiki/Th%C3%... Brane : http://fr.wikipedia.org/wiki/Brane Supercordes : http://fr.wikipedia.org/wiki/Th%C3%...

Théorie M dite théorie des membranes : unification des différentes théories des cordes http://fr.wikipedia.org/wiki/Th%C3%...

Théorie de la gravitation quantique à boucles http://fr.wikipedia.org/wiki/Gravit... http://fr.wikipedia.org/wiki/Gravit... http://www.cnrs.fr/publications/ima...

Théorie unitaire d’Alain Connes http://www.futura-sciences.com/fr/n...

Relativité d’échelle (ou fractale) de Laurent Nottale http://fr.wikipedia.org/wiki/Relati...’%C3%A9chelle

Prochaine partie : les particules élémentaires

Hervé Debonrivage


Signatures: 0
Répondre à cet article

Forum

Date Nom Message