Un peu de physique...

Accueil

 

Liens

Bibliographie

Précis historique

Index des noms propres

 

 

Glossaire

A B C D E F G H I J K L M N O P Q R S T U V W X Y Z   Unités

A

Accrétion : en astrophysique, l’accrétion désigne l’augmentation de masse d’un objet stellaire (particule, astéroïde, étoile constituée ou en cours de formation, trou noir) par agglomération de matière. La matière ainsi gagnée peut provenir du gaz stellaire qui entoure l’objet ou d’une étoile proche dont le champ gravitationnel n’est pas suffisant pour combattre la force d’attraction dudit objet. Le phénomène d’accrétion conduit généralement à la formation d’un disque d’accrétion.

Action : l’action est une quantité homogène à une énergie multipliée par un intervalle de temps (ou à une distance multipliée par une quantité de mouvement). L’action intervient en mécanique par le biais de l’intégrale d’action (principe de moindre action) et en physique quantique sous la forme de quantum d’action (constante de Planck).

Année lumière (AL) : unite de distance utilisée en astronomie. Une année lumière vaut 9461 milliards de km, soit environ 1016m.

Antimatière : l’existence de l’antimatière a été prédite par Paul Dirac à la fin des années 20. L’antimatière lui est apparue comme une solution de l’équation relativiste de l’électron dont il venait d'établir la théorie. Elle fut confirmée expérimentalement quelques années plus tard. L’antimatière a toutes les caractéristiques de la matière mais toutes ses charges sont inversées, à commencer par la charge électrique (symétrie C : conjugaison de charge).

Axion : l’axion est un boson associé à un champ scalaire qui permet d’expliquer l’absence de moment dipolaire du neutron, moment pourtant prédit par la QCD. La masse des axions est faible (inférieure au mEV). Les axions n’ont jamais été détectés expérimentalement. Il faut dire qu’ils sont supposés interagir très peu avec la matière. Les propriétés des axions font qu’ils peuvent se transformer en photons lorsqu’ils sont soumis à un champ magnétique intense (effet Primakoff). La matière noire pourrait être constituée en partie d’axions.

B

BAO : Baryonic Acoustic Oscillations, voir oscillations acoustiques baryoniques.

Baryon : les baryons sont des hadrons composés de 3 quarks. Les protons et les neutrons sont des baryons. On utilise le terme de matière baryonique pour parler de la matière ordinaire (c'est à dire composée de protons et de neutrons) dans l'Univers.

BEH : Brout-Englert-Higgs. C’est le nom complet du mécanisme de brisure de symétrie qui intervient pour donner une masse aux particules. Le boson associé au champ BEH est le boson de Higgs.

Big-Bang : ce terme a été inventé par l’astronome anglais Fred Hoyle pour discréditer la théorie soutenue par Georges Lemaitre d’un Univers en expansion à partir d’un état originel très chaud et très dense. Fred Hoyle soutenait pour sa part le modèle de l’Univers stationnaire : un univers en expansion mais dont la densité restait constante. Le modèle de Fred Hoyle supposait un mécanisme de génération continue de matière pour maintenir sa densité constante. La théorie de Fred Hoyle a été définitivement battue en brèche lorsqu’on a découvert le fond diffus cosmologique. Le terme est resté mais il a perdu la connotation négative que lui donnait Fred Hoyle.

Boson : les bosons sont des particules véhiculant un quantum d’interaction. Comme les interactions sont décrites par des théories de jauge, ils sont aussi appelés bosons de jauge. Les bosons obéissent à la statistique de Bose-Einstein. Les bosons ont un spin entier. Le photon est un boson, tout comme les gluons, les bosons Z 0, W - et W + ou le boson de Higgs.

Boson de Higgs : le boson de Higgs est le boson associé au champ BEH (Brout, Englert et Higgs). Le champ BEH est un champ scalaire dont l’énergie potentielle n’est pas minimale lorsque le champ est nul. Lorsque la température est élevée, cela n’a pas de conséquence, l’énergie cinétique des particules primant sur l’énergie potentielle. Lorsque la température passe en-dessous de 100 GeV, la situation s’inverse et l’énergie potentielle devient prépondérante. Le champ tend alors vers un état d’énergie minimale qui correspond à une valeur de champ non nulle. Il y a brisure de symétrie. Il se trouve que le champ de Higgs se couple alors au champ électrofaible. Il n’a aucun impact sur les photons mais il se combine aux autres bosons du champ pour donner les bosons Z 0, W - et W +. L’interaction de ces bosons avec le champ de Higgs leur confère une masse alors qu’ils étaient sans masse avant la brisure de symétrie. L’interaction faible se dissocie dès lors de l’interaction électromagnétique : la première a une portée faible alors que la seconde a une portée infinie.

Brane : le concept de brane est un concept de la théorie des cordes. Les branes sont des membranes de Dirichlet de l’espace à 10 (ou 11) dimensions de la théorie des cordes. Une n-brane est un objet à n dimensions. Une corde est une 1-brane (ou une n-brane) si l’on se place dans le contexte dela M-théorie). Notre Univers serait une 4-brane à laquelle sont attachées de manière indissociable toutes les particules élémentaires qui le composant.

Brisure de symétrie : le mécanisme de brisure de symétrie n’est pas propre à la physique quantique. On le rencontre aussi en physique classique. Un même milieu peut se trouver dans deux phases différentes en-dessous et au-dessus d’une certaine température. En général, la phase correspondant à la température la plus élevée présente une plus grande symétrie que la phase de température inférieure. C’est le cas de l’eau : au-dessus de zéro degré, les molécules peuvent être orientées dans n’importe quel sens. Au-dessous, elles sont orientées selon les axes privilégiés du réseau cristallin formé par la glace. C’est aussi le cas dans les métaux ferromagnétiques. En physique quantique le mécanisme BEH est un exemple typique de brisure de symétrie. Il conduit à privilégier une phase du champ de Higgs et à la séparation entre l’interaction électromagnétique et l’interaction faible.

C

Censure cosmique : selon Roger Penrose, toute singularité de l’espace-temps (comme celle située au cœur d’un trou noir) est entourée d’une surface fermée qui fait office d’horizon des événements pour cette singularité. L’existence de cet horizon exerce une censure cosmique dans la mesure où il est impossible à un observateur extérieur à cette surface d’avoir une quelconque information sur ce qui se passe de l’autre côté de l’horizon.

Céphéïde : une céphéide est une étoile très lumineuse dont l’éclat varie de façon périodique. Comme la période d’une céphéide dépend de sa luminosité, il est possible de déterminer la distance d’une céphéïde en mesurant cette période. Les céphéïdes étaient utilisées comme chandelles standard pour mesurer la distance des galaxies avant d’être remplacés par les supernovæ de type IA.

Champ : objet mathématique défini sur une variété. On parle de champ scalaire lorsque le champ est défini par une valeur scalaire en chaque point de cette variété. La pression par exemple est un champ scalaire défini sur l’espace R3 : elle est définie en chaque point de cet espace mais sa valeur peut varier d’un point à un autre. Le champ de Higgs est également un champ scalaire. On parle de champ vectoriel si le champ est défini par un vecteur : c’est le cas du champ électrique. Il existe également des champs tensoriels comme le tenseur énergie-impulsion de la relativité générale. La notion de champ est utilisée en physique quantique pour rendre compte de la dualité onde-particule et des interactions.

Champ quantique : le formalisme dans lequel s’exprime la physique quantique est celui des champs quantiques. Il permet de réunir la notion d’onde et de particule au sein d’un seul concept. Les mesures et les interactions s’expriment sous la forme d’opérateurs appliqués à ces champs. Les états quantiques sont les vecteurs propres de ces opérateurs. Il y a deux catégories de champs quantiques, les champs de masse (ou champs fermioniques) et les champs de jauge (ou champs bosoniques). Les premiers sont associés aux particules, les seconds aux interactions. Dans la théorie des champs quantiques, une particule est un état d’excitation du champ. De la même façon, l’interaction entre deux particules occupe un niveau d’excitation donné du champ de jauge correspondant. L’exemple le plus simple est celui de l’électron dans l’atome d’hydrogène. Signalons enfin que l’état d’énergie minimale d’un champ ne peut pas être nul (principe d’indétermination de Heisenberg). Ceci conduit à la notion d’énergie du vide.

Charge de couleur : la charge de couleur est une propriété physique des particules élémentaires qui n’a pas d’équivalent à l’échelle macroscopique. Elle concerne les quarks et intervient dans l’interaction forte. La théorie qui décrit les interactions entre particules de charges de couleur différentes est la chromodynamique quantique (QCD) dont la portée est très faible. La charge de couleur peut prendre trois valeurs différentes auxquelles on a donné le nom de rouge, vert et bleu (R, V, B) bien que cela n’ait aucun rapport avec les couleurs de la palette (l'interaction forte n'a rien à voir avec l'électromagnétisme). Les particules d’antimatière correspondantes portent des charges de couleur anti-rouge, anti-vert et anti-bleu. La stabilité d’une particule composée de quarks requiert que la charge de couleur résultante soit neutre. Dans le cas d’un hadron (3 quarks) chaque quark doit avoir une couleur différente pour former un assemblage de charge neutre (RVB). Dans le cas d’un méson (quark-antiquark) les quarks doivent avoir une charge de couleur opposée (R - anti-R par exemple).

Chiralité : un objet (ou une interaction) est chiral s’il est symétrique dans la transformation P (parité : symétrie miroir). L’interaction faible n’est pas chirale mais elle respecte la symétrie CP. Autrement dit : la symétrie miroir est respectée si on remplace les particules de matière par leur équivalent en anti-matière.

Chromodynamique quantique (QCD) : la QCD est une théorie de jauge qui rend compte de l’interaction forte. C’est une interaction à très courte portée qui intervient entre des particules de charges de couleur différentes. Les quarks sont sensibles à l’interaction forte. Les bosons de jauge correspondant à la QCD sont les gluons.

Classification périodique (tableau de Mendeleïev) : classification des éléments établie au XIXème siècle par le chimiste Dimitri Mendeleïev et faisant apparaître un caractère périodique de leurs propriétés si on les range par ordre croissant de masse moléculaire. La physique quantique permet d’expliquer ce caractère périodique à partir des nombres quantiques associés aux électrons. Les propriétés chimiques des éléments dépendent en effet du nombre d’électrons de leur couche de valence. Celle-ci présente un nombre limité de places disponibles en raison du principe d'exclusion de Pauli. Lorsqu’une couche est remplie, les électrons occupent une nouvelle couche et les éléments correspondants sont positionnés sur une nouvelle séquence du tableau.

CMB : Cosmic Microwave Background, voir fond diffus cosmologique.

Cohésion des noyaux atomiques : la cohésion des noyaux des atomes est une conséquence indirecte de l’interaction forte. Les nucléons (protons et neutrons) qui composent les noyaux ont une charge de couleur nulle et ils n’interagissent théoriquement pas entre eux. Néanmoins, le puits de potentiel associé à l’interaction forte ne s’arrête pas net à la surface des nucléons (qui d’ailleurs n’existe pas). Dans ces conditions, ceux-ci peuvent trouver une configuration stable en mettant en commun un niveau quantique d’énergie. En physique quantique, toute interaction se matérialise sous la forme d’un échange de particules. Dans le cas de la force de cohésion des noyaux, cette particule est le pion, encore appelé méson pi.

Collisionneur de particules : pour sonder l’infiniment petit, il faut interagir avec la matière avec des particules dont la longueur d’onde (voir dualité onde-particule) soit compatible avec l’échelle visée. Cela nécessite des particules avec une très haute énergie. Les collisionneurs de particules créent des faisceaux de particules à très haute énergie pour bombarder des cibles et observer les traces des interactions qui se produisent. Le LHC est le collisionneur de particules le plus puissant actuellement en service. Il est installé à la frontière franco-suisse et fait 27 km de diamètre. A capacité maximale, il permettra d’atteindre 14 TeV. Un autre avantage des collisionneurs de particules est qu’ils permettent de recréer localement les conditions de température et de pression qui existaient peu de temps après le Big-Bang.

Commutation : les opérateurs quantiques ne commutent pas nécessairement entre eux. Soit O et P deux opérateurs, la non-commutation de ces opérateurs signifie que l’équation O.P|Ψ> = P.O|Ψ> n’est pas vérifiée. C’est le cas pour les opérateurs correspondant à des variables conjuguées (comme la position et l’impulsion). La non-commutation de ces opérateurs est l’explication théorique du principe d’indétermination de Heisenberg pour ces variables.

Comobile : la mesure des distances dans un Univers en continuelle expansion est un vrai casse-tête. La mesure du décalage vers le rouge donne de précieux indices et permet de situer le moment où la lumière a été émise sur une échelle chronologique qui va du Big-Bang à nos jours. Mais une étoile dont la lumière a été émise il y a 10 milliards d’années ne se trouve pas à 10 milliards d’années-lumière ! L’Univers s’est en effet dilaté pendant tout ce temps. On appelle distance comobile la distance que l’on peut reconstituer à partir du décalage vers le rouge et du calcul du facteur d’expansion de l’Univers. D’une certaine façon, on peut dire que la distance comobile utilise une unité de distance qui s’allonge avec le temps : elle a une valeur nulle au moment du Big-Bang et correspond à notre référentiel aujourd’hui.

Condensat de Bose-Einstein : un condensat de Bose-Einstein est un état de la matière à très basse température dans lequel un ensemble de fermions partagent un même état quantique. Le spin de l’ensemble peut alors avoir une valeur entière ce qui confère à ces fermions les mêmes caractéristiques que celles d’un ensemble de bosons.

Cône du futur, cône du passé : dans l’espace-temps de la relativité, la distance entre deux événements (deux points de l’espace-temps) peut être de trois types : du genre espace si aucun signal se propageant à une vitesse inférieure ou égale à celle de la lumière ne peut relier les deux points, du genre temps si l’on peut passer de l’un à l’autre à une vitesse inférieure à celle de la lumière (on dit qu’ils sont causalement reliés), du genre lumière s’ils peuvent être reliés par un signal lumineux. En tout point P de l’espace-temps on peut définir deux cônes. Le cône du futur est le sous-espace constitué par les points P’ reliés causalement à P et qui se situent dans le futur de P. Le cône du passé est le sous-espace constitué par les points P’ reliés causalement à P et qui se situent dans le passé de P. La surface qui délimite ses cônes est de genre lumière.

Conjecture BKL : la conjecture BKL (Belinski, Khalitnikov, Lifshitz) propose un modèle de singularité chaotique à proximité de la singularité au centre d’un trou noir. La conjecture BKL est l’une des tentatives théoriques cherchant à élucider le comportement de la matière à l’intérieur de l’horizon d’un trou noir. Le physicien américain Charles Misner a une formule imagée pour qualifier l’intérieur d’un trou noir : il parle d’univers « mixmaster ». La représentation la plus simple d’un trou noir est celle de Schwarzschild, dans sa version originelle (métrique de Schwarzschild) ou plus élaborée (métrique de Kruskal-Szekeres). Dans cette représentation, le trou noir est constitué d’un horizon au centre duquel se trouve une unique singularité.

Conjecture WCH : la conjecture WCH (Weyl curvature hypothesis) postule que le tenseur de Weyl est uniformément nul sur la frontière conforme de l’espace-temps au moment du Big bang. Dans une représentation conforme de l’espace temps, le Big Bang est en effet représenté par une surface à trois dimensions appelée B-. L’hypothèse WCH signifie que l’on part d’une « feuille blanche » et que la frontière B- ne porte les traces d’aucune courbure.

Conjugaison de charge : la conjugaison de charge consiste à remplacer toutes les particules par leur antiparticule. Elle est également appelée symétrie C.

Constante cosmologique : la constante cosmologique est une constante qu’Einstein a introduite dans son équation de la relativité générale pour compenser l’effet de la gravitation universelle et permettre l’existence d’un Univers stationnaire (ce qui correspondait à l’opinion couramment admise au début du XXème siècle). Einstein a retiré cette constante de son équation lorsque Hubble a découvert le mouvement de récession des galaxies. A la fin des années 1990, la découverte de l’accélération de l’expansion de l’Univers a remis la constante cosmologique au goût du jour. Dans sa version moderne, elle correspond à une forme d’énergie exerçant une action répulsive sur la matière. On ignore la nature de cette énergie que l’on a baptisée énergie noire (ou énergie sombre).

Constante de Boltzmann : c’est une constante fondamentale de la physique. Elle permet de relier la température absolue d’un système à son énergie thermique. Lorsque le système n'a qu'un seul degré de liberté, la relation s'écrit de façon très simple : E = 1/2 kBT.

Constante de couplage : la constante de couplage d’une interaction caractérise la probabilité qu’ont deux particules qui se rencontrent d’interagir. Dans le cas de l’interaction électromagnétique, cette constante de couplage s’appelle constante de structure fine et vaut 1/137. Cette constante est beuacoup plus faible dans le cas d’un neutrino (de l’ordre de grandeur d’un millionième) et cela explique que le neutrino interagisse très faiblement avec les autres particules. La valeur de la constante de couplage est essentielle dans le cadre de la méthode perturbative. Une constante de couplage faible limite le nombre d’interactions multiples et donc le nombre de scenarii à prendre en compte dans les calculs.

Constante de Hubble : la constante de Hubble est la constante de proportionnalité la distance et la vitesse de récession apparente des galaxies. Elle est exprimée en km/s/Mpc (mégaparsec). La récession des galaxies est un phénomène résultant de l'expansion de l'Univers. L’expansion de l’Univers été mise en évidence par Edwin Hubble en 1929 en analysant le décalage vers le rouge du spectre d’émission de plusieurs dizaines de galaxies lointaines. Elle a été confirmée depuis en mesurant ce décalage pour des millions de galaxies et en recoupant ces mesures avec celles obtenues à partir de supernovæ de type IA.

Constante de Planck (quantum d’action) : constante qui joue un rôle fondamental en physique. C’est la plus petite quantité d’action possible échangée lors d’une interaction. La constante de Planck a été introduite pour la première fois par Max Planck en 1900 pour expliquer les caractéristiques du rayonnement d’un corps noir. Elle introduit une limite à notre capacité de connaissance (principe d’indétermination de Heisenberg).

Corps noir : objet physique dont le spectre d’émission électromagnétique ne dépend que de la température. En théorie, un four aux parois noires percé d’un trou émet un spectre de rayonnement qui est celui d’un corps noir. La loi physique qui régit la forme de ce rayonnement a longtemps été une énigme pour les physiciens. Max Planck a finalement résolu cette énigme en introduisant la fameuse constante de Planck qui allait révolutionner la physique au début du XXème siècle. Le rayonnement du fond diffus cosmologique est celui d’un corps noir à 2.7 K, ce qui démontre bien son origine thermique.

Correspondance holographique : on peut établir une correspondance entre le comportement de cordes (voir théorie des cordes) soumises à la gravitation dans un espace anti-de Sitter (un espace espace de Sitter de courbure négative) et celui de particules régies par une théorie similaire à la chromodynamique quantique (mais avec un nombre de charges de couleur différent) sur l’enveloppe conforme de cet espace. La correspondance holographique est aussi appelée correspondance AdS-CFT (anti-de Sitter – conformal field theory). Cette correspondance a été démontrée de façon rigoureuse. Elle donne lieu à une conjecture visant à l’étendre à un espace de Sitter qui serait plus proche de notre Univers mais cette conjecture reste à démontrer.

Courbure : la théorie de la relativité générale nous apprend que l’espace dans lequel nous vivons n’est pas euclidien. La présence de matière ou d’énergie déforme localement cet espace et lui donne une courbure. Un espace courbe est un espace dans lequel la somme des angles d’un triangle ne fait pas 180 degrés et où deux droites localement parallèles peuvent se rejoindre. La surface d’une sphère est un exemple d’espace courbe à deux dimensions. Le formalisme mathématique qui permet de décrire un espace courbe est celui des tenseurs (et plus particulièrement le tenseur de Riemann). Pour calculer une distance dans un espace courbe on a recours au tenseur métrique. La notion de ligne droite n’a plus cours, elle est remplacée par celle de géodésique.

Covariance : le principe de covariance généralise le principe de relativité. Il affirme que toutes les lois physiques s’expriment de la même façon quelque soit le référentiel, inertiel ou non. On parle également d’indépendance du fond. Il est à la base de la théorie de la relativité générale. En pratique, la covariance s’exprime par le fait que les quantités physiques ont la forme de tenseurs, que les lois physiques sont des équations tensorielles et que leur transposition locale dans un référentiel en chute libre se ramène aux équations de la relativité restreinte.

D

D-brane : membrane de Dirichlet, voir brane.

Décalage vers le rouge cosmologique (redshift) : le décalage vers le rouge est un phénomène astronomique de décalage vers les grandes longueurs d'onde du spectre de rayonnement d’un objet astronomique lointain (étoile, quasar, galaxie). Il est lié à l’expansion de l’Univers. Il existe d'autres formes de décalage vers le rouge. Le décalage vers le rouge gravitationnel, par exemple, affecte le rayonnement émis à partir d’un champ de gravitation. Le décalage vers le rouge cosmologique se traduit toujours par un allongement de la longueur d'onde, ce qui n'est pas le cas du décalage gravitationnel (on parle parfois de blueshift).

Décohérence : la décohérence quantique explique le passage du monde de la physique quantique à celui du monde macroscopique. La plupart des phénomènes quantiques sont liés aux interférences des fonctions d’onde des particules entre elles. La multiplicité des interactions à l’échelle macroscopique fait perdre leur cohérence à ces fonctions d’onde et détruit les figures d’interférence responsables des propriétés si particulières des particules à l’échelle quantique.

Découplage : ce terme fait référence à l’événement qui est à l’origine de l’émission du fond diffus cosmologique. Lorsque la température de l’Univers était supérieure au seuil de découplage (environ 3000K), les protons qui s'associaient avec des électrons étaient immédiatement ré-ionisés par les photons très énergiques avec lesquels ils étaient en continuelle interaction. La matière était intimement couplée avec les photons. Le tout formait un plasma ionisé opaque aux radiations. 380000 ans après le Big-Bang, la température de l’Univers est descendue en dessous du seuil de découplage. Des atomes d’hydrogène ont pu se former à partir des protons et des électrons sans être immédiatement dissociés par les photons dont l’énergie propre était devenue insuffisante. La matière et la lumière se sont appelle découplées. Les photons ont pu circuler librement dans un milieu électriquement neutre.

Dégénérescence : lorsqu’une étoile s’effondre sur elle-même, les électrons se trouvent confinés dans un volume restreint en raison du principe d’exclusion de Pauli qui leur interdit d’occuper le même état quantique. De ce fait, leur vitesse devient très grande en raison cette fois du principe d’indétermination de Heisenberg. Il en résulte une pression très élevée, appelée pression de dégénérescence des électrons, qui s’oppose à l’attraction gravitationnelle et permet de stabiliser l’étoile sous la forme d’une naine blanche. Lorsque la vitesse des électrons atteint la vitesse de la lumière, la pression résultante ne peut plus croître et l’effondrement se poursuit jusqu’au stade suivant qui est celui de l’étoile à neutrons.

Dérivée covariante : c’est l’extension de la notion de dérivée dans un espace de Riemann. La dérivée covariante permet de s’affranchir des artefacts liés à la formulation de la métrique (dont le choix peut être quelconque) dans le calcul de grandeurs physique comme la vitesse, l’impulsion ou le gradient.

Disque d’accrétion : l’accrétion est le processus qui conduit à l’accumulation de matière (particules, poussières, astéroïdes) autour d’un noyau du fait de l’attraction gravitationnelle. La matière capturée est mise en orbite autour du noyau. La force centrifuge s’opposant aux effets de l’attraction gravitationnelle dans le plan équatorial, la répartition de la matière prend une forme d'un ellipsoïde très aplati aux pôles. La gravitation a alors tendance à faire converger la matière dans un disque que l’on appelle disque d’accrétion. Un disque d’accrétion peut se former à différentes occasions : autour d’une étoile en formation ; dans un système binaire, lorsqu’une naine blanche aspire la matière de son étoile-compagnon ; autour d’un trou noir en rotation...

Dualité onde-particule : le principe de dualité onde-particule a été établi par Louis de Broglie. Il stipule que toute particule peut être observée sous forme d’onde ou sous forme de particule. La nature ondulatoire et la nature corpusculaire d’une particule sont complémentaires. Elles ne peuvent pas être observées simultanément.

E

Ecole de Copenhague : courant de pensée, dont Niels Bohr a été le chef de file jusqu’à sa mort, qui considère que l’on ne peut pas parler d’un objet indépendamment de toute mesure. Se poser la question de savoir ce qui se passe entre deux mesures (ou deux interactions) n’a donc pas de sens. Cette interprétation permet de mettre de côté toutes les questions que soulève l’étrangeté de certains phénomènes de la physique quantique : les interférences quantiques ou l’intrication par exemple. Dans une expérience d’interférence, chercher à connaître le chemin suivi par un électron amène à réaliser une interaction qui perturbe l’expérience et détruit le phénomène d’interférence. Cela montre, selon les tenants de l’interprétation de Copenhague, que la notion de trajectoire d’un électron n’a pas de sens physique. Pour connaître cette trajectoire, il faudrait interagir en continu avec cet électron, donc le perturber constamment. Albert Einstein refusait cette interprétation. C’est par opposition à l’école de Copenhague qu’il a formulé en 1935 le paradoxe EPR. L’expérience d’Aspect lui a donné tort sur ce point mais le débat sur la signification de la physique quantique continue de partager les physiciens et les phikosophes.

Effet Lense-Thirring : effet d'entraînement en rotation de l'espace-temps à proximité d'un trou noir en rotation (trou noir de Kerr).

Effet Unruh : l’effet Unruh prédit qu’un observateur en mouvement accéléré dans le vide quantique percevra un rayonnement de type corps noir. La notion de vide a un sens très particulier en physique quantique. Le vide est l’état de plus basse énergie des champs quantiques qui remplissent (et peut-être constituent) l’Univers. L’état d’énergie d’un champ quantique est défini par les valeurs propres de son hamiltonien, lui-même basé sur des coordonnées locales. Or, la théorie de la relativité nous enseigne que deux observateurs se déplaçant relativement l’un par rapport à l’autre, et à plus forte raison s’ils sont en accélération l’un par rapport à l’autre, doivent utiliser des coordonnées différentes. Le hamiltonien des champs quantiques a donc de fortes chances de ne pas présenter les mêmes les mêmes états propres pour ces deux observateurs. Ceci signifie qu’un état qui est perçu comme caractéristique du vide par l’un des observateurs peut très bien être perçu comme rempli d’une énergie thermique non nulle par l’autre. C’est précisément ce que prédit l’effet Unruh, qui stipule qu’un observateur en mouvement accéléré dans un vide quantique mesurera une température qui est celle d’un corps noir et qui est proportionnelle à son accélération. La formule est la même que celle du rayonnement d’un trou noir (formule de Hawking) à ceci près que le terme de gravité de surface est remplacé par le terme d’accélération.

Effondrement gravitationnel : la répartition de la matière dans l’Univers est, à grande échelle, homogène et isotrope. Il peut cependant y avoir localement des inhomogénéités qui se traduisent par des surdensités. Ces surdensités exercent un pouvoir d’attraction sur la matière environnante. Tant que la surdensité reste modérée, l’effet de la force d’attraction est ralenti par celui de l’expansion de l’Univers. Par contre, dès que la surdensité atteint un seuil critique, il se produit un phénomène d’emballement. La matière qui est attirée par la surdensité vient la renforcer : ceci amplifie la force d’attraction et accélère le processus. L’effondrement gravitationnel correspond à cette phase d’emballement. La matière se concentre dans un nuage protostellaire au sein duquel la pression et la température augmentent de façon continue. Lorsque la densité et la température au cœur du nuage dépassent un certain seuil des réactions de fusion se produisent qui amorcent une réaction en chaîne. Une étoile est née. L’effondrement gravitationnel est momentanément stoppé par la pression de radiation engendrée par la réaction en chaîne. Il reprend dès que la réaction en chaîne s’interrompt. Une étoile massive peut ainsi vivre plusieurs phases d’effondrement.

Electron : l’électron est une particule élémentaire. C’est un lepton. Il porte une charge électrique négative inverse de celle des protons. L’interaction électromagnétique retient les électrons au voisinage des noyaux des atomes où ils occupent des niveaux d’énergie quantifiés. Ces niveaux d’énergie sont à l’origine des raies de Balmer qui caractérisent les fréquences émises par un atome lorsqu’il est excité. Les électrons sont également sensibles à l’interaction faible (radioactivité béta).

Electron-volt : énergie acquise par un électron accéléré par une différence de potentiel d’un volt. C’est l’unité de base pour caractériser la masse ou l’énergie en physique des particules. La masse d’un proton vaut environ un GeV (gigaélectron-volt : un milliard d’électron-volts). Le LHC, le collisionneur de particules le plus puissant, pourra produire des faisceaux de 14 TeV à pleine puissance (téraélectron-volts : mille milliards d’électron-volts).

Energie cinétique : énergie que possède un corps du fait de son mouvement. Pour un corps simple dénué de mouvement de rotation, c’est le demi-produit de la masse par le carré de la vitesse. Dans la théorie de la relativité restreinte tout comme dans la théorie de la relativité générale l’énergie cinétique ne se différencie plus de la masse : masse et énergie cinétique sont deux composantes d’une seule et même grandeur que l’on appelle énergie-matière. L’énergie cinétique intervient aussi bien dans le Lagrangien que dans le Hamiltonien.

Energie du vide : le principe d’indétermination de Heisenberg stipule que l’état d’énergie minimum d’un champ quantique ne peut pas être nul. C’est effectivement ce que l’on observe au travers de l’effet Casimir. Cette énergie a d’autres effet. Le même principe d’indétermination indique en effet que, pendant un très court instant, l’énergie du vide peut être suffisante pour que le champ accède à sa couche de masse. Il apparaît alors une paire de particules virtuelles qui se recombinent pour disparaître aussitôt après.

Energie-impulsion : la théorie de la relativité restreinte et la théorie de la relativité générale établissent l’équivalence entre matière et énergie. Cela se traduit sous la forme d’un vecteur énergie-impulsion pour la relativité restreinte et d’un tenseur énergie-impulsion pour la relativité générale.

Energie noire (ou énergie sombre) : voir matière noire et énergie noire.

Energie potentielle : dans certaines circonstances, un corps ou un système soumis à une interaction peut acquérir de la vitesse du fait de cette interaction. On dit alors que ce corps possédait une énergie potentielle qu’il transforme en énergie cinétique. C’est le cas d’un corps situé en altitude. Il est soumis à l’interaction gravitationnelle. Si on le lâche, il va tomber en acquérant de la vitesse. L’énergie cinétique qu’il gagne se déduit directement de son énergie potentielle gravitationnelle. Lorsque l’interaction à laquelle le système est soumis s’oppose à tout mouvement, on dit que celui-ci se trouve dans un puits de potentiel. Il faut alors fournir au système une énergie lui permettant de compenser l’énergie potentielle qu’il a cédée au milieu avec lequel il est en interaction pour lui permettre d’évloluer. L’énergie potentielle intervient aussi bien dans la formule du Lagrangien que dans celle du Hamiltonien.

Ensembles causaux : dans la théorie des ensembles causaux (causal sets) l’espace-temps est supposé émerger d’un réseau de relations causales entre événements. Un ensemble causal définit une relation d’ordre entre les événements. C’est une histoire possible de l’Univers parmi toutes les histoires possibles. La fonction d’onde de l’Univers lui attribue une amplitude de probabilité. Le temps et l’espace tels que nous les percevons correspondent à la limite classique d’un nuage d’ensembles causaux, un peu comme une courbe continue peut émerger d’un nuage de points obéissant à une statistique donnée.

Entropie : l’entropie est une grandeur utilisée en thermodynamique. On peut l'envisager de deux façons différentes. D'un point de vue macroscopiqe, l'entropie est une variable d'état permettant de caractériser la part d'énergie dissipée en chaleur dans toute transformation thermodynamique (Q = TΔS). Si l'on adopte un point de vue statistique l'entropie permet de quantifier le nombre de micro-états pouvant être assimilés à un même macro-état. Considérons un gaz caractérisé par sa température et sa pression. Il n’est pas nécessaire de connaître avec précision la position et la vitesse de chacun des atomes qui le constituent (son micro-état) pour connaître ses propriétés (son macro-état). Un nombre considérable de micro-états différents peuvent d’ailleurs conduire au même macro-état. C’est cette quantité que l’entropie mesure. Plus l’entropie d’un macro-état est grande, plus le système considéré a de probabilités de se trouver dans ce macro-état. Le second principe de la thermodynamique stipule que toute transformation d'un système thermodynamique entraîne une augmentation de l'entropie globale (système + milieu extérieur). Ce principe est souvent utilisé pour expliquer l’irréversibilité de l’écoulement du temps à une échelle macroscopique alors que la plupart des phénomènes physiques sont réversibles.

Entropie d’un trou noir : Jacob Bekenstein puis Stephen Hawking ont montré qu’on pouvait déterminer l’entropie d’un trou noir et que celle-ci était proportionnelle à la surface de son horizon. Il en résulte que la température d’un trou noir n’est pas nulle (même si elle est très faible) et que celui-ci rayonne (voir évaporation d’un trou noir).

Equation de Schrödinger : c’est l’équation qui décrit l’évolution dans le temps de la fonction d’onde. L'équation de Schrödinger est formulé dans un cadre non-relativiste. Paul Dirac l'a reformulé en prenant en compte le contexte de la relativité restreinte (équation de Dirac).

Equations de Maxwell : les équations de Maxwell ont été formulées en 1864 pas James Clerk Maxwell. Elles constituent une synthèse brillante des lois de l’électricité et du magnétisme et permettent de démontrer que ces deux phénomènes sont reliés à un seul et même champ, le champ électromagnétique. Maxwell en tira la conclusion tout à fait révolutionnaire pour l’époque que la lumière était également une manifestation du champ électromagnétique. La formulation quantique de l’électromagnétisme est donnée par la théorie électrodynamique quantique (QED).

Ergosphère : zone de forme ellipsoïde qui entoure un trou noir en rotation dans laquelle toute matière est entraînée dans un mouvement de rotation à grande vitesse.

Espace de Hilbert : extension de la notion d’espace vectoriel dans lequel les vecteurs peuvent être des fonctions complexes définies sur un espace de dimension quelconques. L’espace de Hilbert est l’espace dans lequel sont définies les fonctions d’onde des systèmes quantiques.

Espace fibré : un espace fibré est un espace à chaque point duquel on associe une variété différentielle de dimension donnée. On donne à cette variété le nom de fibre. Prenons par exemple le cas de la fonction d’onde d’un électron. Elle est définie sur un espace de Minkowski. Néanmoins, pour la définir complètement, on a besoin de définir sa phase en chaque point de l’espace. Cette phase prend ses valeurs sur une 1-variété de dimension finie : le cercle unité. La fonction d’onde d’un électron est donc définie sur un espace fibré construit à partir d’un espace de Minkowski (la base) et d’une 1-variété (la fibre). Les espaces fibrés interviennent dans les symétries de jauge.

Espace-temps : la notion d’espace-temps a été introduite par Minkowski pour donner un cadre général à la théorie de la relativité restreinte d’Einstein. L’espace-temps de Minkowski est un espace pseudo-euclidien (il n’a pas de courbure) à quatre dimensions : trois dimensions d’espace et une dimension de temps. La relativité s’exprime au travers des transformations de Lorentz qui ont la propriété de conserver la vitesse de la lumière. Cette notion a été étendue par la suite à la relativité générale. L’espace-temps de la relativité générale est un espace courbe. Sa courbure est liée à la distribution de matière-énergie dans cet espace.

Etoile à neutrons : lorsqu’une étoile arrive en fin de vie, la production d’énergie dans le cœur de l’étoile chute brutalement. La pression de radiation ne peut plus contrecarrer l’effet de la gravitation et l’étoile s’effondre sur elle-même. Il y a alors trois possibilités en fonction de la masse de l’étoile. Si la masse de l’étoile est inférieure à la masse de Chandrasekhar, la pression de dégénérescence des électrons arrête le processus d’effondrement et l’étoile devient une naine blanche. Si elle est supérieure à cette masse mais inférieure à 3 masses solaires, les électrons du noyau se combinent avec les protons pour former des neutrons. Cette fois, c’est la pression de dégénérescence des neutrons qui stoppe le processus d’effondrement. L’étoile devient une étoile à neutrons : l’objet le plus dense existant dans l’univers. Au-delà de 3 masses solaires, il se forme un trou noir. La formation d'une étoile à neutrons est un phénomène extrêmement violent qui se traduit par une émission très lumineuse appelée supernova. Lors du processus de formation d’une étoile à neutrons, le principe de conservation du moment cinétique conduit celle-ci à avoir une vitesse de rotation très élevée (de quelques millisecondes à quelques secondes par tour). Le champ magnétique de l’étoile est entraîné par ce mouvement de rotation. Si l’axe magnétique de l’étoile n’est pas le même que son axe de rotation, cela se traduit par un faisceau électromagnétique qui décrit un cône autour de l’axe de rotation. Les astrophysiciens ont donné le nom de pulsar à ce type d'étoile.

Etrangeté : l’étrangeté est un nombre quantique conservé par l’interaction forte et par l’interaction électromagnétique. Elle ne l’est pas par l’interaction faible. L’étrangeté est la différence entre le nombre d’antiquarks strange et le nombre de quarks strange. La notion d’étrangeté a été introduite par Murray Gell Mann. Elle l’a conduit à postuler l’existence de la particule Ω- qui fut découverte peu de temps après.

Evaporation des trous noirs : contrairement à ce que l’on peut imaginer, les trous noirs émettraient un rayonnement à très basse température. Ce rayonnement serait dû à un mécanisme quantique mis en évidence par Stephen Hawking. Lorsqu’une paire de particules virtuelles est créée à proximité d’un trou noir, l’une d’entre elles peut être absorbée par le trou noir alors que l’autre s’en échappe. Il en résulte une infime diminution de la masse du trou noir qui compense l’énergie nécessaire à la création de la paire virtuelle. Cette découverte de Stephen Hawking conforte la conjecture fait par un autre physicien, Jacob Bekenstein, selon laquelle les trous noirs auraient une entropie proportionnelle à la surface de leur horizon.

Expérience d’Aspect : l'expérience d'Aspect a permis de trancher le débat qui partageait les physiciens au sujet du paradoxe EPR. L'expérience d'Aspect est basée sur les inégalités de Bell. Elle démontre qu'il n'existe pas de variables cachées locales dans le cas de photons intriqués distants contrairement à l'opinion d'Einstein. Elle met en évidence le caractère non-local de la physique quantique. Cette expérience a été menée en 1980 par Alain Aspect et son équipe. Elle a été reproduite par d'autres équipes plusieurs fois depuis.

F

Fermion : les fermions sont des particules de matière. Elles répondent à la statistique de Fermi-Dirac qui leur interdit d’occuper simultanément un même état quantique. Cette statistique conduit au principe d’exclusion de Pauli. C'est le principe d'exclusion de Pauli qui donne sa consistance à la matière. Les fermions ont un spin demi-entier.

Fonction d’onde : la fonction d’onde d’un système quantique décrit la probabilité de ce système de se trouver à un endroit donné ou d’avoir une impulsion donnée. La fonction d'onde exprime en chaque point (ou pour chaque impulsion) une amplitude de probabilité complexe. L’évolution de la fonction d’onde dans le temps est déterminée par l’équation de Schrödinger.

Fond diffus cosmologique (CMB, cosmic microwave background) : aux premiers temps de l’Univers, le gaz de particules qui le constituait était entièrement ionisé et formait un plasma chaud. La température et la pression du rayonnement était trop élevés pour que les électrons puissent rester prisonniers de l’attraction des protons. Le rayonnement interagissait constamment avec les ions du gaz et ne pouvait se propager. Trois cent quatre-vingt mille ans après le Big bang, la température est descendue en dessous de 3000 K et est devenue insuffisante pour dissocier les atomes d’hydrogène à mesure qu’ils se formaient. Le gaz est devenue neutre : le rayonnement s’est trouvé libéré de toute interaction et a pu se propager librement. Les physiciens George Gamow et Ralph Alpher ont prédit dès 1948 que l’Univers était baigné par un rayonnement uniforme issu de cet épisode de Ce n’est que 16 ans plus tard qu’Arno Penzias et Robert Wilson le mirent en évidence expérimentalement. En raison de l’expansion de l’Univers, le rayonnement initial à 3000 K est devenu un rayonnement micro-onde à 2,74 K. Les satellites COBE et Planck ainsi que la sonde WMAP ont confirmé les prédictions de la théorie. Le fond diffus cosmologique est considéré comme le succès le plus éclatant du modèle standard de la cosmologie.

G

Géodésique : la notion de géodésique est la généralisation de la notion de droite dans un espace courbe. Elle joue un rôle essentiel dans la théorie de la relativité générale d’Einstein. Tout corps qui n’est soumis à aucune force suit une géodésique. C’est vrai pour le mouvement gravitationnel : en relativité générale, la gravitation ne s’exprime pas sous la forme d’une force d’attraction mais par une déformation de l’espace-temps.

Géométrie non commutative : la géométrie non commutative est une géométrie qui s’affranchit de la notion de point. Dans cette nouvelle géométrie, une variété n’est plus un ensemble de points mais un ensemble de fonctions. La géométrie qui en découle perd son caractère parfaitement définie, elle devient floue. Il était possible de définir des fonctions sur une variété constituée de points : ces fonctions sont désormais des opérateurs qui ne commutent pas nécessairement. Le caractère flou et la non-commutativité font de cette géométrie un candidat sérieux pour exprimer la physique quantique sur des bases très générales.

Gluon : le gluon est le quantum d’interaction associé à l’interaction forte. C’est donc lui qui permet la stabilité des baryons (protons et neutrons) ainsi que des noyaux des atomes. Il y a 8 types de gluon, chaque type correspondant à une paire de charge de couleur différente.

Graphité quantique (quantum graphity) : néologisme construit à partir des mots graphe et gravité. C’est une variante de la théorie des ensembles causaux. Pour les auteurs de cette théorie (dont fait partie Lee Smolin) l’espace émerge d’un réseau d’interactions (le graphe). Les événements sont les nœuds de ce graphe qui évolue dans le temps. La théorie décrit les lois qui régissent cette évolution ainsi que la création et l’annihilation des nœuds et des interactions. Le nombre de relations que peut avoir un nœud définit le nombre de dimensions de l’espace émergeant du graphe. Un nœud peut avoir des relations avec un nœud distant, ce qui expliquerait la non-localité de l’intrication quantique.

Gravitation quantique à boucles (Loop quantum gravity) : L’objectif de la gravitation quantique à boucles est de combiner la relativité générale et la physique quantique. Dans la gravitation quantique à boucles, la métrique est exprimée sous la forme d’un vecteur dans un espace de Hilbert. La théorie définit ensuite une fonction d’onde d’Univers ΨU. Cette fonction d’onde peut être décomposée en fonctions d’onde élémentaires sur des boucles. En connectant les boucles entre elles, on obtient un réseau de spins. On peut démontrer que l’espace de Hilbert des métriques admet comme base l’ensemble de ces réseaux de spins. Ceux-ci apparaissent donc comme des vecteurs propres de la fonction d’onde d’Univers.

Graviton : le graviton est la particule associée à l’interaction gravitationnelle dans les théories de gravitation quantique. Le graviton est aux ondes gravitationnelles ce que le photon est aux ondes électromagnétiques. Le graviton reste une particule hypothétique, il n’a jamais été mis en évidence expérimentalement.

Groupe de Lie : la notion de groupe de Lie est une extension de celle de groupe de Poincaré (translations, rotations…). Un groupe de Lie est un groupe qui est doté d’une structure de variété différentielle. Par exemple, l’ensemble des rotations sur un cercle forme un groupe. C’est aussi un espace isomorphe à celui des points de ce cercle. C’est donc un groupe de Lie (le groupe U(1)). Les groupes de Lie jouent un rôle essentiel en physique quantique. Les groupes de Lie sont à la base des théories de jauge. Les théories de jauge consistent à rechercher les symétries intervenant sur la fibre d’un espace-temps de Minkowski. Par exemple, la symétrie de jauge associée au groupe U(1) permet de formuler la théorie de l’interaction électromagnétique quantique (QED).

H

Hadron : les hadrons sont des particules composées de plusieurs quarks. Il y a deux types de hadrons : les baryons sont composés de 3 quarks, les mésons d’une paire quark-antiquark.

Hamiltonien : la formulation hamiltonienne de la mécanique est très condensée. Elle permet de décrire les lois du mouvement à partir de variables canoniques (par exemple la position et l’impulsion) et en n’utilisant que des équations aux dérivées premières. Elle est très utilisée en physique quantique. Le hamiltonien intervient dans l’équation de Schrödinger.

Hélicité : l’hélicité d’une particule est la projection de son spin sur la direction de son moment cinétique.

Horloge atomique : horloge utilisant comme référence la fréquence émise par un électron lors de sa transition d’un niveau d’énergie à un autre. La précision de l’horloge dépend de la température de l’atome utilisé (ordinairement un atome de césium). La vitesse résiduelle de l’atome considéré a en effet un impact sur la fréquence perçue. Dans les horloges les plus précises les atomes sont refroidis à une température très proche de 0K, ce qui permet d'atteindre des précisions de l'ordre de 10-15.

Horizon des événements : l’horizon des événements d’un trou noir est la surface au-delà de laquelle plus rien ne peut échapper à l’attraction du trou noir. Mathématiquement, cela se traduit par le fait que le cône du futur en tout point de la surface est orienté vers l’intérieur de la surface. Puisqu’on ne peut rien connaître de ce qu’il advient au-delà de cette surface, on dit qu’elle exerce une censure cosmique.

Hypernova : effondrement du cœur d’une étoile hypermassive en trou noir. L’explosion d’une hypernova dégage une énergie cent fois plus importante que celle d’une supernova. Cette énergie se traduit par l’émission d’un sursaut gamma perceptible à d’énormes distances.

Hypothèse FLRW : selon l’hypothèse FLRW (Friedmann, Lemaître, Robertson, Walker) l’univers peut être représenté par un fluide homogène et isotrope. La symétrie FLRW permet de trouver des solutions analytiques de l’équation d’Einstein de la relativité générale à l'échelle de l'Univers.

I

Impulsion : produit de la masse par la vitesse. L’impulsion d’un système isolé est conservée lors de toute évolution de ce système. L’impulsion est une grandeur fondamentale en mécanique. La formulation hamiltonienne de la mécanique décrit de façon très simple tout mouvement à partir de la position et de l’impulsion des éléments qui constituent le système considéré. L’impulsion intervient également dans le Lagrangien dudit système (voir principe de moindre action). La théorie de la relativité restreinte généralise la notion d’impulsion en l’associant à l’énergie pour former le quadrivecteur énergie-impulsion. L’impulsion est aussi appelée quantité de movement.

Inégalités de Bell : les inégalités de Bell mettent en évidence la différence entre les prédictions de la physique quantique et celles résultant de l'application de la théorie des variables cachées dans le cas de particules intriquées. L'expérience d'Aspect a permis de trancher entre ces deux hypothèses. Les inégalités de Bell ont été démontrées par le physicien John Bell.

Inflation cosmique : l’inflation cosmique est un épisode du modèle standard de la cosmologie. L’inflation cosmique apporte une réponse à une double énigme : pourquoi l’univers présente-t-il une telle homogénéité (en particulier en ce qui concerne le fond diffus cosmologique) et pourquoi notre univers est-il quasiment euclidien ? Le scenario d’inflation cosmique a été proposé pour la première fois par Alan Guth, il est basé sur l’existence d’un champ scalaire (inflaton) baignant l’Univers immédiatement après le Big bang. Ce champ aurait conduit à une expansion exponentielle de l’espace-temps (facteur d’accroissement supérieur à 1025) en un temps extrêmement bref. L’expansion aurait cessé à la suite d’une transition de phase une fois que le champ a atteint un état d’énergie minimale. Le scenario proposé initialement par Alan Guth a été abandonné au profit de scenarii plus sophistiqués qui conduisent le plus souvent au concept d’inflation éternelle et de multivers. Des transitions de phase locales conduiraient à la création d’univers-bulles au sein d’un espace-temps en expansion continuelle. Les lois physiques au sein de ces univers pourraient être différentes en fonction de l’état du champ après la transition. L’hypothèse inflationniste ne fait pas l’unanimité au sein de la communauté scientifique. D’autres scenarii sont proposés pour expliquer l’homogénéité et la platitude de l’espace-temps.

Information : l’information, selon Claude Shannon, est le nombre d'alternatives possibles pour l'état d'un système. La quantité d'information s'exprime sous la forme du logarithme en base deux de ce nombre d'alternatives. C'est la même formule qui mesure l’entropie d'un système en fonction du nombre de micro-états qui produisent un système équivalent.

Interaction : action réciproque de deux objets entre eux. La physique ramène l’ensemble des interactions à quatre interactions fondamentales. L’interaction gravitationnelle est décrite par la théorie de la relativité générale, les interactions électromagnétique, faible et forte sont décrites par la physique quantique. En théorie quantique des champs, un boson est associé à chacune de ces trois interactions.

Interaction électrofaible : l’interaction électrofaible est le cadre théorique unifiant l’interaction électromagnétique et l’interaction faible. Au-delà de 100 GeV, ces deux interactions n’en forment qu’une seule. Elle a une portée infinie car les particules sensibles à cette interaction n’ont pas de masse. Lorsque la température descend en dessous de cette limite, il y a brisure de symétrie. L’interaction électromagnétique et l’interaction faible se séparent. Le couplage de l’interaction faible avec le champ de Higgs confère une masse effective aux particules concernées. De ce fait, l’interaction faible n’a plus qu’une portée limitée. La théorie qui décrit l’interaction faible est une théorie de champ quantique appelée théorie de Yang-Mills.

Interaction électromagnétique : l’interaction électromagnétique est une interaction de portée infinie responsable des phénomènes électriques et magnétiques ainsi que de la lumière. Elle est décrite par la théorie électrodynamique quantique (QED, Quantum electrondynamics). Le boson associé à l’interaction électromagnétique est le photon. Au dessus de 100 GeV, elle se combine à l’interaction faible pour donner l’interaction électrofaible.

Interaction faible : l’interaction faible est une interaction de portée très limitée responsable des phénomènes de radioactivité. Tous les fermions sont sensibles à l'interaction faible qui agit sur leur saveur. Les bosons associés à l’interaction faible sont les bosons Z 0, W - et W +. Les bosons de l’interaction faible ont une masse nulle mais ils interagissent avec le champ de Higgs lorsqu’il a une valeur non nulle. C'est l’énergie de cette interaction qui leur confère une masse effective non nulle (m = E/c2). Au-dessus de 100 GeV, l’agitation thermique permet au champ de Higgs de trouver un état stable dans lequel sa valeur s’annulle. Dès lors il n’interagit plus avec les bosons de l’interaction faible. Celle se combine à l’interaction électromagnétique pour donner l’interaction électrofaible.

Interaction forte : l’interaction forte est une interaction de portée très limitée (10-15m). Elle assure la cohésion des baryons ainsi que celle des noyaux atomiques. Elle est décrite par la théorie de la chromodynamique quantique (QCD, Quantum chromodynamics). La QCD est une théorie de champ quantique expliquant comment des particules de charge de couleur différente (par exemple des quarks) interagissent entre elles en échangeant des gluons. Lorsque des particules sont reliées par l’interaction forte, la force de rappel qui agit entre eux croît avec la distance. Elle agit comme un élastique qui retient les particules entre elles. Si on fournit suffisamment d’énergie pour vaincre l’interaction forte, l’élastique finit par casser en donnant naissance à une paire quark-antiquark (c.à.d un méson). C’est la raison pour laquelle il est impossible d’observer des quarks isolément. La cohésion des noyaux atomiques est une conséquence indirecte de l'interaction forte, les nucléons (protons et neutrons) ayant une charge de couleur nulle. C'est l'échange de pions entre eux qui assure cette cohésion.

Interférence : les interférences lumineuses ont été mises en évidence par le physicien britannique Thomas Young en 1801. Elles ont mis en évidence la nature ondulatoire de la lumière. Le principe de dualité onde-particule établi par Louis de Broglie a conduit les expérimentateurs à tenter de réaliser des expériences d’interférence avec des particules. L’expérience a été concluante et l’aptitude des fonctions d’onde à interférer entre elles ou avec elles-mêmes est considérée aujourd’hui comme l’une des propriétés les plus emblématiques de la physique quantique.

Intrication (entanglement) : l’intrication est un phénomène purement quantique. Lorsque deux particules sont intriquées, elles sont décrites par un même état quantique. Une fonction d’onde unique décrit la probabilité des deux particules de se trouver dans un même état. La conséquence de cette propriété est particulièrement surprenante. Si on fait une mesure sur l’une de ces particules, cela conduit à une réduction du paquet d’onde qui s’applique instantanément à la seconde particule, quelle que soit la distance qui sépare les deux particules de la paire. Ce résultat est d’autant plus surprenant que la mesure conserve son caractère quantique. Avant la mesure, l’état commun des particules est indéterminé, le résultat de la mesure est donc aléatoire. Cette propriété a été vérifiée par expérience (expérience d’Aspect en 1980) dans des conditions qui rendent irréfutables ses conclusions, à savoir l’absence de variables cachées et le caractère non local de l’intrication. L’expérience d’Aspect a tranché le débat qui agitait le monde scientifique depuis la publication en 1935 d’un article d’Einstein et de deux de ses collaborateurs sur le caractère incomplet de la physique quantique (paradoxe EPR).

Isospin : terme utilisé par analogie avec la notion de spin pour exprimer la symétrie apparente existant entre protons et neutrons dans l’interaction forte. On dit du proton et du neutron que ce sont deux nucléons d’isospin différent. On utilise également le terme d’isospin dans l’interaction faible. Dans ce cas, l’isospin exprime le fait qu’un lepton chargé (électron, muon ou tau) produit toujours un neutrino lors d’une réaction de désintégration.

J

Jauge : voir symétrie de jauge.

K

Kaon : particules de matière don’t on a démontré qu’elles ne respectaient pas la symétrie CP. La violation de la symétrie CP est une des conditions qui permettent d’expliquer la dissymétrie flagrante entre matière et anti-matière dans l’Univers (mécanisme de Sakharov).

L

Lagrangien : quantité fonction des variables dynamiques d’un système (position et impulsion). Dans la formulation initiale, le Lagrangien est la différence entre l’énergie cinétique et l’énergie potentielle. Le Lagrangien intervient dans le principe de moindre action. Il apparaît également dans la théorie des champs sous la forme d’une densité de Lagrangien. Il a été reformulé par Paul Dirac et est utilisé de façon très générale dans la théorie des champs quantiques. Le Lagrangien ne doit pas être confondu avec le Hamiltonien.

Laser : Light Amplifier by Stimulated Emission of Radiation. Dispositif qui permet d’émettre un faisceau de lumière cohérente. Un atome excité revient dans son état de plus basse énergie au bout d’un certain temps en émettant un photon dont la fréquence correspond à la différence d’énergie entre l’état excité et l’état de repos. On peut stimuler cette transition de relaxation en illuminant les atomes excités avec un faisceau de fréquence identique. On obtient ainsi un effet d’amplification (on parle de pompage) puisque les photons produits par la désexcitation stimulée s’ajoutent aux photons incidents.

Lepton : les leptons sont des particules élémentaires sensibles à l’interaction faible. Il existe trois saveurs de leptons : électronique, muonique et tauique.

Liaison covalente : liaison entre deux atomes au sein d’une molécule. La liaison covalente résulte de la mise en commun d’un ou plusieurs électrons par ces atomes. Dans ces conditions, la fonction d’onde de ces électrons est plus étendue et ils peuvent avoir une énergie cinétique plus faible (principe de Heisenberg). Cela permet à la molécule d’avoir un état d’énergie plus faible que les atomes qui la constituent pris séparément. La liaison covalente est à l'origine de la cohésion mécanique des matériaux et de certaines de leurs propriétés électriques.

LIGO (Laser Interferometer Gravitational-Wave Observatory) : dispositif constitué de deux interféromètres laser de grande précision permettant de détecter le passage d’ondes gravitationnelles provoquées par un événement cosmique de nature cataclysmique (comme la collision de deux trous noirs par exemple). Les deux interféromètres sont situés à plusieurs milliers de kilomètres l’un de l’autre : l’un se trouve dans l’état de Washington et l’autre en Louisiane. Cette grande distance permet de s’affranchir des signaux parasites. Le dispositif LIGO a détecté un tel événement au début de l’année 2016, confirmant ainsi l’existence des ondes gravitationnelles… et celle des trous noirs. Un troisième interféromètre, baptisé VIRGO et localisé en Italie va compléter le dispositif dans le courant de l’année 2016.

LHC : Large Hadron Collider, l’accélérateur de particules le plus puissant. Installé à la frontière franco-suisse, il fait 27 km de diamètre. En 2015, il pourra produire des faisceaux de 14 TeV à pleine puissance. Le boson de Higgs a été découvert grâce au LHC.

M

Marée gravitationnelle : un objet en orbite autour d’un trou noir est soumis à un effet de marée gravitationnelle. Au centre de gravité de cet objet, l’attraction gravitationnelle par le trou noir et la force centrifuge s’équilibrent. Comme la courbure de l’espace varie rapidement aux alentours d’un trou noir, cet équilibre n’est plus réalisé pour la partie de l’objet la plus proche du trou noir ni pour celle la plus éloignée. Pour la partie la plus proche, c’est la force d’attraction qui l’emporte. Pour la partie la plus éloignée, c’est la force centrifuge. L’objet est donc soumis à une force de traction qui tend à l’étirer en direction du trou noir. Le même raisonnement montre qu’il est comprimé dans la direction tangentielle à son orbite.

Masse de Chandrasekhar : c’est la masse au-delà de laquelle une étoile en fin de vie qui s’effondre forme une étoile à neutrons. La masse de Chandrasekhar est déterminnée par la limite supérieure de la pression de dégénérescence des électrons au sein d’une naine blanche. Lorsque la vitesse des électrons confinés atteint la vitesse de la lumière, la pression résultante ne peut plus croître et l’effondrement se poursuit jusqu’au stade de l’étoile à neutrons.

Matière noire et énergie noire : les observations astronomiques laissent penser que la matière visible (matière baryonique) ne constitue que 5% de la densité de matière dans l’espace. Le restant serait constitué de 26% de matière noire (DM : dark matter) et de 69% d’énergie noire (DE : dark energy). La matière noire serait une forme de matière interagissant peu avec la matière baryonique et les photons. Elle aurait permis la formation des premières galaxies en accélérant leur effondrement gravitaionnel. L’énergie noire est une forme d’énergie plus mystérieuse. Elle exerce un effet répulsif et serait responsable de l’accélération de l’expansion de l’Univers. Certains astrophysiciens avancent qu'il pourrait y avoir une interaction entre matière noire et énergie noire, exprimée sous la forme d'une équation d'état reliant leur densité d'énergie respective.

Mégaparsec (Mpc) : unité de distance utilisée en astronomie. Un mégaparsec vaut 3,08 1022m ou encore 3,26 millions d’années-lumière.

Méson : les mésons sont des hadrons composés d’un quark et d’un anti-quark.

Méthode perturbative : la méthode perturbative est à la physique quantique ce que le développement limité est à l’analyse. Le principe d’indétermination d’Heisenberg empêche de savoir ce qui se passe précisément lors d’une interaction, il est dès lors difficile de calculer les probabilités qui se rapportent aux différents scenarii possibles (en particulier compte tenu des interactions multiples qui peuvent survenir en raison des fluctuations quantiques). La méthode perturbative prend en compte tous les scenarii dont la contribution est significative. Dans ce contexte, la valeur de la constante de couplage est essentielle. Une constante de couplage faible limite le nombre d’interactions multiples et donc le nombre de scenarii à prendre en compte.

Métrique : la métrique permet de définir la notion de distance dans un espace courbe. Elle s’exprime sous la forme d’un tenseur. Le tenseur métrique intervient dans l’équation de la relativité générale d’Einstein.

Métrique de Kerr : la métrique de Kerr est une solution exacte de l’équation d’Einstein dans le cas d’une masse isolée en rotation. Elle a été découverte par Roy Patrick Kerr au début des années 1960. Elle a fait progresser considérablement la compréhension du comportement des trous noirs. Un trou noir de Kerr présente des caractéristiques tout à fait étonnantes comme la mise en rotation de l'espace-temps à proximité du trou noir (effet Lense-Thirring).

Métrique de Schwarschild : la métrique de Schwarschild est une solution exacte de l’équation d’Einstein dans le cas d’une masse isolée sans rotation. Elle a été découverte par Karl Schwarzschild peu de temps après la publication des travaux d'Einstein. Elle constitue une première approximation utile pour comprendre le comportement des trous noirs. Elle a permis également de prédire le décalage des rayons lumineux à proximité du soleil et de comprendre la cause de la précession du périhélie de Mercure.

Métrique FLRW : la métrique FLRW est la métrique de Friedmann, Lemaître, Robertson et Walker. Elle décrit le comportement d’un univers homogène et isotrope (principe cosmologique). La métrique FLRW est à la base du modèle standard de la cosmologie. Elle permet en effet de mettre en équation l’exansion de l’Univers (équations de Friedmann).

Modèle Λ-CDM (Λ cold dark matter) : c’est le modèle standard de la cosmologie. Il prend en compt une constante cosmologique pour expliquer l’accélération de l’expansion de l’Univers (Λ) et l’existence d’une matière noire dite froide (cold dark matter).

Modèle standard : un modèle est un scenario construit sur la base d’une ou plusieurs théories et de paramètres adhoc et à partir duquel il est possible de calculer certaines caractéristiques mesurables d’un phénomène ou de modéliser de façon suffisamment représentative l’évolution d’un phénomène. Il existe deux grands modèles en physique : le modèle standard des particules et le modèle standard de la cosmologie (modèle Λ-CDM).

Modèle standard des particules :

Le modèle standard comprend également un certain nombre de particules composées. Les hadrons sont des fermions composés de plusieurs quarks. On distingue parmi eux les baryons, composés de trois quarks (le proton et le neutron sont des baryons) et les mésons composés d’un quark et d’un antiquark. Les protons et les neutrons sont aussi appelés nucléons. La notion de parton, utilisée un temps pour décrire les particules composant les nucléons, a été abandonnée dès lors que la chromodynamique quantique a permis d’expliquer l’interaction forte.

MOND : la théorie MOND est une théorie de la gravitation modifiée (Modified Newtonian Dynamics) de façon à expliquer la vitesse de rotation des galaxies en faisant l’économie de la matière noire. A l’origine, la théorie MOND est très empirique. Elle a par la suite été formalisée de façon plus rigoureuse (théorie TeVeS : Tenseur-Vecteur-Scalaire). Cependant ni la théorie MOND ni la théorie TeVeS ne parviennent à proposer un modèle qui fonctionnent à toutes les échelles (galaxies, amas, super amas). Le modèle Λ-CDM reste le plus convaincant.

Mur de Planck : le mur de Planck est une expression imagée caractérisant la limite en-deçà de laquelle les effets de la physique quantique ne peuvent plus être considérés indépendamment de ceux de la relativité générale (et réciproquement). Concrètement, cela veut dire que la longueur d’onde associée par la physique quantique à une particule de masse m est du même ordre de grandeur que le rayon de Schwarzschild de cette même masse. Pour franchir ce mur, on aurait besoin d’un théorie de la gravitation quantique qui reste à construire. Les grandeurs physiques qui caractérisent le mur de Planck font intervenir la valeur de la constante de Planck.

M-Théorie : la M-théorie (ou théorie des super-cordes) a été proposée en 1995 par Edward Witten pour dépasser les antagonismes existant entre les 5 théories des cordes concurrentes. Il existe en effet 5 théories des cordes : théorie de type I, théories de type IIA et IIB, théorie hétérotique O et théorie hétérotique E. Edward Witten a montré qu’il existait des dualités entre ces théories et que l’on pouvait passer de l’une à l’autre (en particulier par le biais de la constante de couplage). Cette découverte l’a amené à postuler qu’il existait une théorie plus générale (baptisée M-théorie) dont les 5 théories existantes ne sont que des approximations. Cette M-théorie fait l’hypothèse d’un espace à 11 dimensions (10+1). Dans cet espace, les cordes perdent leur caractère unidimensionnel : elles sont en fait des 2-branes. Le fait de les considérer comme des objets unidimensionnels est, en soi, une première approximation.

N

Naine blanche : lorsqu’une étoile a terminé ses cycles de vie et qu’un nouvel embrasement ne peut plus arrêter son effondrement gravitationnel, seule la pression de dégénérescence des électrons peut stabiliser l’étoile sous forme de naine blanche. Cependant, si la masse de l’étoile est supérieure à la masse de Chandrasekhar cette pression n’est pas suffisante pour contrecarrer la force d’attraction gravitationnelle. Les électrons se combinent aux protons pour former des neutrons et l’étoile devient une étoile à neutrons.

Neutrino : le neutrino est une particule élémentaire appartenant au modèle standard. C’est un fermion. Il existe sous trois formes : le neutrino électronique, le neutrino muonique et le neutrino tauique (on dit qu’il peut avoir trois saveurs). Les neutrinos ont une charge nulle et une masse très faible. Ils se déplacent à une vitesse proche de celle de la lumière. Ils interagissent très peu avec la matière et leur détection est particulièrement délicate. Les neutrinos présentent une particularité assez déroutante : ils peuvent changer de saveur en se déplaçant. Un neutrino qui se propage est une combinaison linéaire des trois saveurs et on observe ce que l’on appelle des oscillations de saveur.

Neutron : le neutron n’est pas une particule élémentaire. C’est un baryon (une particule composée constituée de trois quarks). Le neutron est neutre électriquement. L’interaction forte permet d'expliquer la cohésion des baryons. C'est également elle qui retient les protons et les neutrons ensemble au sein des noyaux des atomes.

Non-localité : certains phénomènes quantiques conduisent à penser que la physique quantique ne respecte pas les critères de localité de la physique traditionnelle et de la relativité. C’est le cas de l’intrication quantique. Une mesure faite sur une particule appartenant à une paire de particules intriquées détermine l’état de l’autre particule de la paire quelle que soit la distance entre les deux particules. Il n’y a cependant pas violation de la loi qui stipule qu’il est impossible de transférer de l’information à une vitesse supérieure à celle de la lumière : l’état de la particule mesurée est aléatoire, on ne peut donc pas transférer de l’information par ce biais.

Nova : Flash lumineux très intense produit par l’explosion thermonucléaire d’un disque d’accrétion qui s’est accumulé autour d’une naine blanche dans un système binaire. Ce disque se forme à partir de l’hydrogène et de l’hélium que la naine blanche aspire à partir de l’atmosphère de son étoile-compagnon. Lorsque la température et la pression au sein du disque dépasse une certaine limite, il y a embrasement et réaction en chaîne.

Nucléon : protons et neutrons ont des propriétés très similaires. Avant que les mécanismes de l’interaction forte qui relie entre eux les quarks soient élucidés, Werner Heisenberg avait suggéré que le proton et le neutron étaient deux états distincts d’une même particule, le nucléon. Ces deux états correspondaient aux deux valeurs d’une propriété quantique, l’isospin. L’idée avancée par Heisenberg a été abandonnée (la symétrie entre proton et neutron n'est qu'apparente) mais le terme de nucléon est resté.

Nucléosynthèse : la totalité des noyaux des atomes existant dans l’Univers a été créée par nucléosynthèse. La première phase de nucléosynthèse s’est produite peu de temps après le Big Bang (nucléosynthèse primordiale) et a produit la quasi-totalité des moyaux d’hydrogène, d’hélium et de deutérium existant. Les phases suivantes de nucléosynthèse se déroulent au cœur des étoiles et expliquent la formation des noyaux plus lourds (nucléosynthèse stellaire). Cette origine cosmique des noyaux atomiques a conduit l’astrophysicien canadien Hubert Reeves à dire que nous sommes tous des poussières d’étoile.

Nucléosynthèse primordiale : la nucléosynthèse primordiale est un épisode de l’histoire de l’Univers telle que la décrit le modèle standard de la cosmologie. Elle démarre lorsque la température descend en-dessous d’un milliard de degrés K (0.1 MeV). Elle se poursuit quelques temps pour s’arrêter 3 minutes après le Big Bang. Cette nucléosynthèse aboutit à la formation de tous les types de noyaux "légers" (c'est-à-dire de masse atomique inférieure à celle du lithium : hydrogène, deutérium, tritium, hélium 3, hélium 4 et lithium). Les composants les plus courants sont, de loin, l’hydrogène (75%) et l’hélium (25%). La convergence entre les prédictions de la théorie et les mesures effectuées par les astronomes est étonnamment précise. Cette convergence est considérée comme l’un des plus grands succès de ce modèle.

Nucléosynthèse stellaire : la nucléosynthèse stellaire explique la formation des atomes plus lourds que l’hélium ou le lithium au cœur des étoiles. Le mécanisme de fusion nucléaire qui se produit dans le noyau conduit à la formation de divers éléments plus légers que le fer. Lorsque l’étoile arrive en fin de vie, une partie du noyau s’effondre pour former une naine blanche ou une étoile à neutrons. Les couches intermédiaires rebondissent sur le noyau hyperdense qui s’est formé et engendrent une monstrueuse onde de choc qui prend à revers les couches supérieures en train de s’effondrer. Les réactions en chaîne que cela déclenche expliquent la formation d’éléments plus lourds que le fer. Ces éléments sont dispersés dans l’espace par l’explosion de l’étoile en supernova. Le mécanisme des novæ produit également des éléments lourds.

O

Ondes gravitationnelles : les ondes gravitationnelles sont une prédiction de la relativité générale qui a été vérifiée de manière indirecte en février 2016 grâce aux détecteurs du programme LIGO. Les ondes gravitationnelles propagent dans l’espace-temps les oscillations de la courbure dues à des événements particulièrement violents (collisions de trous noirs, pulsars binaires…). Les ondes gravitationnelles transportent de l'énergie. Elles ont de ce fait un effet de ralentissement sur les systèmes binaires. Cet effet indirect des ondes gravitationnelles a été mesuré sur une longue période sur des pulsars binaires.

Oscillations acoustiques baryoniques (BAO, baryonic acoustic oscillations) : avant l’épisode de découplage qui a donné lieu à l’émission du fond diffus cosmologique, l’univers est un plasma chaud. Le comportement dynamique des plasmas est bien connu. On sait qu’il est parcouru d’ondes de pression générées par l’interaction entre le rayonnement et les particules ionisées (les oscillations acoustiques baryoniques). Ces ondes de pression sont à l’origine de minuscules inhomogénéités du fond diffus. L’analyse de la répartition spectrale de ces inhomogénéités permet aux scientifiques d’en déduire d’intéressantes propriétés de l’Univers. Elles permettent entre autres de confirmer que l’Univers est quasi-euclidien. Les oscillations acoustiques baryoniques sont un autre succès prédictif du modèle standard de la cosmologie.

Opérateur : une particule ou un système quantique sont représentés par un vecteur dans un espace de Hilbert (on parle de vecteur d’état). Les mesures ou les interactions sont représentées par un opérateur agissant sur ce vecteur d’état. Les vecteurs propres de ces opérateurs sont les états quantiques que peuvent prendre la particule ou le système quantique considérés. Certains opérateurs ne commutent pas entre eux : c’est le cas par exemple de l’opérateur position et de l’opérateur impulsion. C’est cette non-commutation qui est à l’origine du principe d’indétermination de Heisenberg.

P

Paire de Cooper : dans un cristal à très basse température, deux électrons peuvent s’associer pour minimiser leur énergie en émettant un phonon. La paire de Cooper a un spin entier et n’est pas soumise au principe d’exclusion de Pauli. Elle ne rencontre aucun obstacle lorsqu'elle se déplace (plusieurs paires de Cooper peuvent occuper le même état). La supraconductivité s’explique par l’existence de ces paires de Cooper à très basse température.

Paradoxe de l’information : un trou noir attire à lui une grande quantité de matière et d’énergie. Il concentre donc une grande quantité d’entropie qui est susceptible de disparaître mors de son évaporation. Ce serait une entorse majeure au second principe de la thermodynamique. Ce paradoxe divise les physiciens. La théorie des cordes, et plus précisément la correspondance AdS/CFT développée par Juan Maldacena, constitue une manière de résoudre ce paradoxe.

Paradoxe d’Olbers : si l’Univers était infini, s’il existait de toute éternité et si la densité des étoiles était uniforme, le ciel devrait être uniformément brillant de jour comme de nuit. La théorie du Big-bang résout le paradoxe d’Olbers puisque l’âge de l’Univers est fini. L’observateur ne perçoit pas la lumière d’une étoile quelle que soit la direction dans laquelle il regarde dans la mesure où son horizon est limité par l’âge de l’Univers.

Paradoxe EPR : nom d’une expérience de pensée imaginée par Einstein, Podolsky et Rosen en 1935 pour démontrer l’incomplétude de la théorie de la physique quantique. Selon la physique quantique, une mesure effectuée sur une particule appartenant à une paire de particules intriquées aura un impact automatique et instantané sur toute mesure effectuée sur l’autre particule de la paire, nonobstant la distance entre ces deux particules. Pour Einstein et ses deux associés il était impossible d’admettre le principe d’indétermination de l’état de la paire intriquée avant la mesure sans violer le principe de localité (impossibilité de toute interaction à une vitesse supérieure à celle de la lumière). Einstein, Podolsky et Rosen concluait qu’il devait exister des variables cachées pour expliquer le comportement des particules. Le paradoxe EPR a suscité un vif débat avec les tenants de l’orthodoxie quantique (l’école de Copenhague, avec Niels Bohr à sa tête). Il semblait qu’il fut impossible à trancher. Pourtant, en 1964, le physicien écossais John Bell a imaginé un moyen de départager les deux camps. Il a proposé un protocole d’essai dont le résultat était différent selon que le principe de localité était respecté ou non. L’expérience a été menée en 1980 par Alain Aspect et son équipe. Elle a démontré le caractère non-local de l’intrication.

Particule virtuelle : les fluctuations du vide quantique permettent l’apparition momentanté de paires de particules virtuelles. Conformément au principe d’indétermination de Heisenberg, l’énergie en tout point peut atteindre pendant un temps très court une valeur suffisante pour faire se matérialiser une paire constituée d’une particule et de son antiparticule.

Photon : le photon est le quantum d’énergie électromagnétique. Le photon est un boson de masse nulle : de ce fait l’interaction électromagnétique a une portée infinie. Ayant une masse nulle, l’application de la théorie de la relativité restreinte implique que le photon ne peut jamais être au repos et qu’il se déplace à la vitesse de la lumière. Comme toutes les particules, le photon a une longueur d’onde qui est déterminée par la relation : E = hν. Le photon a également une impulsion qui est telle que : E = pc. Son quadri-vecteur énergie-impulsion est donc de genre lumière.

Pion (méson pi) : les pions sont des mésons échangés par les nucléons (protons et neutrons) unis par l’interaction forte dans les noyaux des atomes. Ce mécanisme, qui diffère du mécanisme direct d’échange de gluons entre quarks au sein d’un même nucléon, a été décrit pour la première fois par le physicien Hideki Yukawa en 1935. L'existence des pions a été confirmée expérimentalement en 1947.

Plasma : un plasma est un gaz de particules ionisées. Il se forme lorsque les liaisons qui relient les électrons des couches supérieures aux noyaux des atomes sont brisées. A l’échelle macroscopique, le plasma est neutre électriquement mais à l’échelle microscopique il est constitué de charges en mouvement interagissant entre elles.

Potentiel : en physique, on dit d’une force qu’elle dérive d’un potentiel lorsqu’il existe une fonction scalaire ou vectorielle à partir de laquelle on peut la calculer. Dans le cas d’un potentiel scalaire, la dérivée sera obtenue en calculant le gradient de cette fonction scalaire. Dans le cas d’un potentiel vecteur, on obtient la dérivée en calculant le rotationnel de la fonction vectorielle. L’énergie potentielle d’un corps peut être calculée facilement à partir de son potentiel.

Précession du périhélie de Mercure : la précession du périhélie de Mercure (la lente rotation de ce périhélie orbite après orbite) est un phénomène connu des astronomes depuis le XIXème siècle. Il n’existait alors aucune explication de ce phénomène. La théorie de la relativité générale fournit cette explication dès 1916, ce qui contribua beaucoup à établir sa véracité. Il revient Karl Schwarzschild d’avoir établi le premier la métrique qui permit d’établir cette explication (métrique de Schwarzschild).

Pression de radiation : un flux de photons exerce une pression de radiation sur une paroi. Cette pression est liée à la quantité de mouvement des photons du flux. C'est l'intense pression de radiation qui stabilise les étoiles et les empêchent de s'effondrer sur elles-mêmes.

Principe physique : un principe joue en physique le même rôle qu’un postulat en mathématiques. On ne connaît pas d’exception à un principe mais il n’existe pas de démonstration formelle pour le valider.

Principe de moindre action : le principe de moindre action permet de déduire les lois de la mécanique d’une analyse variationnelle d’une quantité appelée intégrale d’action. L'intégrale d'action est calculée à partir du Lagrangien du système considéré (une fonction des grandeurs dynamiques de ce système). Le principe stipule que lors de tout mouvement, la quantité d'action employée lors de ce mouvement (l’intégrale d’action) est toujours la plus petite qu'il soit possible. Le problème à résoudre consiste donc à trouver le trajet pour lequel l’intégrale d’action est minimale. Ceci revient à rechercher le trajet pour lequel la dérivée partielle de l’intégrale d’action par rapport au trajet est nulle. La résolution de ce problème se traite en utilisant la méthode d’Euler-Lagrange.

Principe d’équivalence : le principe d’équivalence est à la base de la théorie de la relativité générale. Il stipule que, localement, les effets d'un champ gravitationnel sont identiques aux effets d'une accélération du référentiel de l'observateur. Le satellite Microscope lancé en avril 2016 a pour objectif de le vérifier avec une précision de 10-15.

Principe d’exclusion de Pauli : le principe d’exclusion de Pauli empêche deux particules de même nature d’occuper le même état quantique. C’est le principe d’exclusion de Pauli qui maintient les atomes éloignés les uns des autres. Lorsqu’on cherche à les rapprocher, leur énergie cinétique augmente considérablement, ce qui engendre une forte pression (pression de dégénérescence). En cas de choc très violent ou d’effondrement gravitationnel (formation d’une étoile à neutrons par exemple), cette pression n’est plus suffisante. Dans ce cas, l’interaction entre les particules amène à la production d’une nouvelle particule ou à rayonnement très intense.

Principe d’indétermination de Heisenberg : dans sa formulation originelle, le principe d’indétermination de Heisenberg (encore appelé principe d’incertitude) stipule que l’on ne peut pas connaître simultanément la position et la vitesse (ou l’impulsion) d’une particule. Le produit de l’écart type de la mesure sur la position par l’écart type de la mesure sur l’impulsion est toujours supérieur ou égal à la moitié de la constante de Planck divisée par 2π. Bien que l’on justifie ceci par le fait que toute mesure perturbe la particule, le principe d’indétermination de Heisenberg n’est pas lié à un défaut d’instrumentation. On peut démontrer qu’il résulte d’une propriété mathématique des opérateurs position et impulsion. Ces opérateurs ne commutent pas et cette non-commutation se traduit par le principe d’indétermination. Ce principe s’applique d’ailleurs à d’autres opérateurs ne commutant pas. C’est le cas par exemple de l’énergie et du temps.

Principes de la thermodynamique : la thermodynamique est régie par deux principes fondamentaux dont la portée dépasse largement celle-ci. Le premier principe est celui de la conservation de l’énergie. Le second stipule que toute transformation d’un système entraîne une augmentation de l’entropie globale du système et de son environnement. De nombreux physiciens voient dans ce principe l’explication de l’irréversibilité des processus naturels et de l’orientation de la flèche du temps.

Portée d’une interaction : la portée d’une interaction exprime le rayon dans lequel elle est actif. Elle dépend de la masse du boson qui la véhicule. Si cette masse est nulle, elle est infinie. C’est le cas de l’interaction électromagnétique (la masse du photon est nulle). Dans le cas contraire elle est limitée. La portée de l’interaction forte est de 10-15m, celle de l’interaction faible est de 10-18m. La masse des bosons de ces deux interactions résulte d’un couplage avec le champ de Higgs.

Proton : le proton n’est pas une particule élémentaire. C’est un baryon (une particule composée constituée de trois quarks). Le proton porte une charge électrique positive inverse de celle des électrons. L’interaction forte permet d'expliquer la cohésion des baryons. C'est également elle retient les protons et les neutrons ensemble au sein des noyaux des atomes.

Pulsar : un pulsar est une étoile qui émet un signal périodique dont la période peut aller de quelques millisecondes à plusieurs secondes. L’explication communément admise est qu’il s’agit d’une étoile à neutrons tournant rapidement sur elle-même en émettant un intense champ électromagnétique. L’axe magnétique de ces étoiles n’étant pas, en règle générale, aligné avec leur axe de rotation, il en résulte qu’elles émettent un faisceau qui décrit un cône en synchronisme avec leur vitesse de rotation. L’émission d’un faisceau électromagnétique amène l’étoile à perdre de l’énergie et on observe effectivement une tendance au ralentissement des pulsars. La plupart des pulsars émettent dans le domaine des ondes radio mais certains se caractérisent par une émission en bande X, voire une émission gamma. Les pulsars X et les pulsars gamma sont moins bien connus et plusieurs théories existent pour expliquer leur processus d’émission. Les magnétars sont des pulsars dont le champ magnétique est très élevé. Ce sont vraisemblablement des pulsars très jeunes.

Q

Quantité de mouvement : voir impulsion.

QCD : Quantum Chromodynamics. Chromodynamique quantique.

QED : Quantum Electrodynamics. Electrodynamique quantique.

Quadrivecteur : vecteur dans un espace à quatre dimensions. Un événement de l’espace-temps a quatre coordonnées : une coordonnée temporelle et trois coordonnées d’espace. C’est donc un quadrivecteur. Il en va de même pour le vecteur énergie-impulsion de la relativité restreinte : il a une coordonnée énergétique (E/c) et trois coordonnées liées à sa quantité de mouvement (vecteur p).

Quantification : c’est une caractéristique fondamentale de la physique quantique. Le résultat de toute mesure faite sur un système quantique ne peut donner qu’un nombre discret de valeurs. A l’échelle macroscopique, nous sommes accoutumés au fait que le résultat des mesures puisse varier de façon continue. Ce n’est pas le cas à l’échelle quantique. Un opérateur de mesure M ne peut produire comme résultat qu’un ensemble dénombrable de valeurs différentes : μ1, μ2μn… Mathématiquement, ces valeurs sont les valeurs propres de cet opérateur dans l’espace de Hilbert sur lequel la fonction d’onde du système quantique considéré est définie.

Quantum d’action (constante de Planck): le quantum d’action est la plus petite valeur de l’action échangée lors d’une interaction. C’est aussi la limite de la connaissance simultanée que l’on peut avoir de deux variables conjuguées (position et impulsion, énergie et temps…).

Quark : les quarks sont des particules élémentaires sensibles à l’interaction forte. Il y a six saveurs de quark : up, down, top, bottom, charm et strange. Les quarks ont une charge électrique (-1/3 ou 2/3) et une charge de couleur (R, V ou B). Les quarks sont les constituants élémentaires des hadrons et en particulier des neutrons et des protons. Neutrons et protons sont composés de 3 quarks de charge de couleur différente, leur charge de couleur résultante est donc neutre.

Quasar (quasi stellar radio source) : c’est l’objet le plus lumineux qui existe dans l’univers. Il est constitué d’un trou noir super massif en rotation entrainant autour de lui un disque d’accrétion. Il expulse des jets de gaz à une vitesse proche de celle de la lumière dans la direction de ses pôles, jets qui s’étendent sur des dizaines de millions d’années lumière.

R

Radioactivité beta : la radioactivité beta est un phénomène résultant de l’interaction faible. Elle se traduit par l’émission d’un électron ou d’un positron. La radioactivité beta est toujours associée à une transition entre un proton et un neutron (ou réciproquement). Elle est médiatisée par l’échange d’un boson W et fait intervenir un neutrino.

Raies de Balmer : les électrons qui gravitent au sein d’un noyau ne peuvent occuper que des états d’énergie bien définis (on parle de discrétisation des états d’énergie, ou encore de quantification). Lorsqu’un atome est excité, les électrons sautent d’un état à un autre de plus haute énergie. Ils reviennent à leur état de plus basse énergie au bout d’un certain temps (appelé temps de relaxation) en émettant un photon dont la fréquence correspond à la différence d’énergie entre ces deux états (E=hν). Un atome ne peut donc émettre qu’un nombre limité de fréquences. Son spectre d’émission se résume à un certain nombre de raies appelées raies de Balmer.

Rayon de Schwarzschild : lorsqu’une certaine quantité d’énergie est comprise dans une sphère dont le rayon est inférieur ou égal au rayon de Schwarzschild, il se forme un trou noir (voir métrique de Schwarzschild).

Redshift : voir décalage vers le rouge.

Réduction de paquet d’onde : un système quantique est caractérisé par sa fonction d’onde. La fonction d’onde d’une particule (ou d'un système quantique) caractérise la probabilité de la particule de se trouver à un endroit donné (ou d’avoir une impulsion donnée). Il est impossible de dire avant la mesure où se trouve la particule (ou quelle est son impulsion). Cette position (ou cette impulsion) est purement aléatoire. Lorsque la mesure est effectuée, il y a réduction du paquet d’onde. La fonction d’onde s’annule pour toutes les autres valeurs (de position ou d’impulsion) que celle qui a été mesurée . Elle est en quelque sorte réinitialisée.

Relativité d’échelle : dans la théorie de relativité d’échelle les caractéristiques de la géométrie de l’espace-temps se reproduisent à différentes échelles. Cela conduit à un univers fractal : le résultat des mesures faites sur un phénomène physique dépend du référentiel choisi (théorie de la relativité) mais également de l’échelle.

Relativité doublement restreinte (Doubly Special Relativity) : dans la relativité doublement restreinte, les équations de la transformation de Lorentz sont modifiées de façon à rendre la longueur de Planck invariante au même titre que la vitesse de la lumière.

Relativité générale : Albert Einstein a développé la théorie de la relativité générale pour étendre le principe de relativité à tout type de référentiel (la théorie de la relativité restreinte ne prend en compte que les référentiels inertiels). La relativité générale révolutionne notre façon de concevoir l’espace. L’espace-temps de la relativité générale est un espace courbe dans lequel la géométrie n’est pas euclidienne. Cette géométrie est caractérisée par sa métrique. La gravitation est une propriété qui s’explique par la courbure de l’espace. Cette courbure dépend de la répartition de l’énergie et des masses dans l’Univers. Les corps en mouvement parcourent une géodésique. Les équations de la relativité générale s’expriment sous forme de tenseurs.

Relativité restreinte : théorie développée par Albert Einstein pour rendre concilier le principe de relativité Galiléenne avec l’invariance de la vitesse de la lumière. Dans le cadre de la théorie de la relativité restreinte, les lois de la physique s’expriment de la même façon quelque soit le référentiel inertiel (galiléen). La théorie de la relativité restreinte remplace l’espace et le temps newtonien par un espace-temps dans lequel il n’est plus possible de considérer espace et temps de façon indépendante. Le passage d’un référentiel inertiel à un autre se fait par le biais des transformations de Lorentz.

Réseau de spins : dans la théorie de la gravitation quantique à boucles, la fonction d’onde de l’Univers peut être décomposée en fonctions d’onde élémentaires sur des boucles. L’ensemble de ces boucles forme un réseau de spins. Dans un réseau de spins, un nœud correspond à un volume élémentaire et une liaison entre nœuds à une surface élémentaire. La géométrie qui émerge d’un réseau de spins est quantique : un volume est décrit par une fonction d’onde qui définit des amplitudes de probabilité complexes sur la base des volumes élémentaires (les nœuds) du réseau de spins.

S

Saveur : terme utilisé en physique quantique pour nommer la propriété qui différencie les différentes catégories de leptons et de quarks. Il y a trois saveurs de leptons (électronique, muonique et tauique) et six saveurs de quarks (up, down, top, bottom, charm, strange).

Spin : le spin est une propriété physique des particules élémentaires qui n’a pas véritablement d’équivalent à l’échelle macroscopique mais que l’on peut relier aux phénomènes ferromagnétiques. Le spin d’une particule ne peut prendre que des valeurs entières (bosons) ou demi-entières (fermions). Bien que l’orientation du spin puisse être quelconque, il est impossible de la déterminer. Dès lors que l’on a mesuré le spin sur un axe, il n’est plus possible de connaître sa valeur sur un autre axe. Les opérateurs correspondants ne commutent pas.

Supernova : nom donné à plusieurs types d’événements cataclysmiques se traduisant par l’apparition pendant plusieurs semaines d’une étoile nouvelle ou par une augmentation énorme de la luminosité d’une étoile existante. Dans le cas général, une supernova résulte de l’effondrement du cœur d’une étoile massive en étoile à neutrons. Elle peut également résulter de la dislocation d’une naine blanche dont la masse dépasse la limite de Chandrasekhar en raison d’un phénomène progressif d’accrétion de matière (supernova de type IA). Même s’il n’ateint pas la puissance de l’explosion d’une hypernova, l’explosion d’une supernova reste l’un des événements les plus spectaculaires qui puisse se produire dans l’Univers.

Supernova de type IA : une supernova de type IA est l’explosion cataclysmique qui se produit lorsqu’une naine blanche atteint la limite de Chandrasekhar par accrétion de matière. Cela se produit lorsque celle-ci fait partie d’un système binaire et qu’elle aspire la matière de son étoile-compagnon. Tant que la masse de la naine blanche reste en dessous de la limite acceptable, l’aspiration de matière se poursuit en produisant des explosions de type nova de façon plus ou moins régulière. Lorsque la limite de Chandrasekhar est atteinte, la naine blanche ne peut plus supporter la pression interne engendrée par son propre poids. Elle s’effondre sur elle-même en produisant un flash lumineux d’une intensité prodigieuse visible pendant plusieurs jours. Ce phénomène est bien connu. Son intensité et sa durée est toujours la même. Ceci permet de calculer la distance qui nous sépare de l’étoile considérée à partir de l'intensité du flash lumineux. Les astronomes disent des supernovæ que ce sont des chandelles standard.

Superposition d’états : un système quantique peut se trouver dans deux états (deux vecteurs propres de ce système quantique) simultanément tant qu’une mesure ne l’a pas contraint à choisir entre ces deux états. Ce principe très particulier de la physique quantique a été vérifié un nombre incalculable de fois. C’est pour exprimer son désarroi face à ce principe pour le moins dérangeant que Schrödinger a imaginé une expérience de pensée connue sous le nom d'expérience du chat de Schrödinger. Dans cette expérience, tant que l’expérimentateur n’a pas observé le résultat, l’infortuné chat séquestré dans le laboratoire se trouve dans une superposition d’état mort et vivant.

Supersymétrie (SUSY) : la supersymétrie est une théorie de jauge. Elle introduit une relation de symlétrie entre particules de spin demi-entier (fermions) et particules de spin entier (bosons) au prix de l’adjonction de nouvelles particules, les partenaires supersymétriques des particules élémentaires. Les neutralinos sont les partenaires supersymétriques des neutrinos, ils pourraient constituer la matière noire recherchée par les astrophysiciens.

Supraconductivité : état particulier de la matière à très basse température dans lequel les électrons libres ne rencontrent aucune résistance lors de leur déplacement. Elle s’explique par l’existence de paires de Cooper (théorie BCS).

Sursaut gamma : émission de rayons gammas très puissante consécutive à l’explosion d’une hypernova. Ce type d’émission est focalisé dans l’axe de rotation du trou noir en formation, ce qui le rend détectable à des distances très éloignées. Ce sont les événements les plus lumineux de l'Univers.

Symétrie : la notion de symétrie est fondamentale en physique. Il y a symétrie lorsque les lois physiques restent inchangées dans une transformation. Le théorème de Noether a démontré qu’à toute symétrie était associée la conservation d’une grandeur physique. Par exemple la conservation de l’énergie correspond à la symétrie par translation dans le temps et la conservation de la quantité de mouvement à la symétrie par translation dans l’espace.

Symétrie CPT : la symétrie CPT résulte de la combinaison de trois symétries, la conjugaison de charge C (échange entre matière et anti-matière), la transformation de parité P (inversion des coordonnées : symétrie miroir), l’inversion de temps T (qui équivaut à une inversion de mouvement). La symétrie CPT est respectée par toute théorie physique raisonnable. Il peut par contre y avoir violation des parités C, P et T prises une à une ou deux par deux. Andreï Sakharov a démontré qu’il y avait un lien entre la disparition de l’anti-matière et la violation de la symétrie CP.

Symétrie de jauge : Une transformation de jauge est une transformation de portée locale, c’est-à-dire une transformation dont l’effet diffère en chaque point de l’espace. Une symétrie de jauge est une transformation de jauge qui laisse invariant un système physique. En physique quantique, les transformations qui nous intéressent sont celles qui affectent les caractéristiques principales des particules : la phase de la fonction d’onde (elle est à l’origine des phénomènes d’interférence) par exemple, ou encore la couleur des quarks (elle joue un rôle dans la stabilité des hadrons). La fonction d’onde des particules de matière n’est pas effectée pas une tranformation de portée globale de la jauge mais cette symétrie est perdue si la portée est locale. Pourquoi, par exemple, peut-on permuter la couleur de tous les quarks de l’Univers en même temps mais pas la couleur de deux quarks proches ? Qu’est-ce qui perturbe la symétrie dans ce cas-là ? On démontre que la symétrie est rétablie si on couple le champ quantique associé aux particules de matière à un autre champ. On démontre également que cet autre champ peut être interprété comme le potentiel d’un champ d’interaction. La quantification de ce champ d’interaction conduit à mettre en évidence les bosons de cette interaction, appelés bosons de jauge). L’exemple le plus simple de ce type de démarche est celui de la théorie de l’interaction électromagnétique quantique (QED). La fonction d’onde d’un électron est invariante par une rotation de phase. Or cette invariance n’est pas vérifiée lorsque deux électrons interagissent. Pour rétablir cette invariance, il faut postuler l’existence d’un champ : le champ électromagnétique. Dans cet exemple, la jauge correspond au choix de la phase, le champ de jauge est le champ électromagnétique et le photon est le boson de jauge. Les transformations de jauge associées aux 3 interactions fondamentales de la physique quantique forment des groupes de Lie. Elles sont définies sur des espaces fibrés.

Systèmes binaires : de nombreuses étoiles font partie d’un système binaire. Cela signifie qu’elles sont liées à une autre étoile, les deux étoiles orbitant autour d’un centre de rotation commun. Les systèmes binaires ont un grand intérêt en astronomie dans la mesure où ils sont à l’origine de phénomènes observables particuliers. Lorsqu’une naine blanche fait partie d’un système binaire, il se produit un transfert de matière entre l’étoile compagnon et la naine blanche. Ce transfert peut conduire à l’explosion de la naine blanche sous la forme d’une supernova de type IA. Deux pulsars peuvent également former un système binaire. Leur rotation très rapide engendre des ondes gravitationnelles qui ralentissent en retour leur période de rotation. Ce ralentissement a permis la détection indirecte des ondes gravitationnelles au cours des années 1980.

T

Tachyon : particule hypothétique dont l’existence n’a jamais été démontrée et dont la vitesse serait toujours supérieure à celle de la lumière. La masse de cette particule serait imaginaire pure au sens des nombres complexes. L’existence de tachyons conduirait à un certain nombre de paradoxes, notamment en termes de causalité.

TeVeS : la théorie Tenseur-Vecteur-Scalaire est une théorie de la gravitation modifiée de façon à expliquer la vitesse de rotation des galaxies en faisant l’économie de la matière noire. Voir théorie MOND.

Tenseur : un tenseur est un objet mathématique très général défini sur un espace vectoriel (ou une variété) qui permet de décrire des applications multilinéaires. C’est un objet abstrait indépendant du référentiel dans lequel il est utilisé : tout changement de référentiel se traduit par une transformation du tenseur qui conserve les propriétés que celui-ci est supposé décrire. Un tenseur peut posséder un nombre quelconque de composants repérés par des indices. Ces indices sont dits covariants ou contravariants en fonction du rôle qu’ils jouent lors d’un changement de référentiel. La géométrie des variétés riemanniennes (espaces courbes) est décrite par des champs de tenseur : tenseur de Riemann pour représenter la courbure, tenseur métrique pour la distance. L’équation d’Einstein de la relativité générale est une équation tensorielle.

Tenseur d’Einstein, Tenseur de Ricci : la théorie de la relativité générale s’exprime au travers de l’équation d’Einstein. Celle-ci comporte deux membres. Le premier membre décrit la courbure de l’Univers par le biais du tenseur d’Einstein et du tenseur de Ricci. Le second décrit la répartition de la matière et de l’énergie dans l’Univers, c’est le tenseur énergie-impulsion.

Tenseur de Weyl : pour décrire complètement la courbure de l’espace-temps, on doit disposer de deux tenseurs, le tenseur de Ricci, déterminé par la relation d’Einstein qui le relie au tenseur de matière-énergie, et le tenseur de Weyl. Le tenseur de Weyl décrit la courbure de l’espace-temps en l’absence de matière. L’importance du tenseur de Weyl en astrophysique tient dans le fait qu’il permet de décrire les ondes gravitationnelles. Les ondes gravitationnelles propagent dans l’espace-temps les oscillations de la courbure dues à des événements particulièrement violents (collisions de trous noirs, pulsars…).

Théorie BCS : théorie formulée par John Bardeen, Leon Cooper et John Schrieffer pour expliquer la supraconductivité. Elle s’appuie sur l’existence de paires de Cooper, un état particulier des électrons qui n’existe qu’à très basse température et dans lequel ils ne rencontrent aucun obstacle en se déplaçant.

Théorie cinétique des gaz : la théorie cinétique des gaz permet d'expliquer le comportement macroscopique d'un gaz en analysant de manière statistique le mouvement des particules qui le composent. Elle doit beaucoup aux travaux de Ludwig Boltzmann. Elle s’applique au gaz de photons et permet de calculer la pression de radiation.

Théorie des cordes : dans la théorie des cordes, les particules élémentaires sont de minuscules cordes qui vibrent. Ce sont les différents modes de résonance des cordes qui sont à l’origine des différentes propriétés physiques des particules. Ces cordes ne nous sont pas perceptibles parce qu’elles se déploient dans des dimensions complémentaires à notre espace à quatre dimensions. L’espace de la théorie des cordes possède en effet 10 dimensions (9+1), voire même 11 si l’on admet la M-théorie (une théorie qui englobe les différentes variantes de la théorie des cordes). Les 6 autres dimensions ont une extension infinitésimale (ou une courbure très forte) ce qui fait que nous ne pouvons pas les percevoir. Elles forment une variété compacte dont la topologie est très complexe (variété de Calabi-Yau). Les cordes ne sont pas les seuls objets prévus par la théorie : celle-ci prévoit également l’existence de branes. Les branes sont des objets de dimension supérieure. Notre Univers serait une 4-brane dont l’une des dimensions est temporelle..

Théorème de Noether : le theorème de Noether a eu une importance fondamentale dans le développement de la physique au XXème siècle. Il place la notion symétrie (invariance d’une loi par rapport à une transformation) au centre de la démonstration des lois de conservation de toute grandeur physique. La conservation de l’énergie est par exemple la conséquence de la symétrie par translation dans le temps.

Thermodynamique : la thermodynamique a d’abord été la science de la chaleur et des machines thermiques avant de devenir, à la suite des travaux de Ludwig Boltzmann la science des systèmes composés d’un très grand nombre d’éléments en équilibre. Le premier principe de la thermodynamique postule le conservation de l’énergie dans toute transformation. Le second principe de la thermodynamique est indissociable de la notion statistique d’entropie. Il stipule que toute évolution d’un système s’accompagne d’un accroissement de son entropie. Ce principe est la justification la plus solide existant à ce jour de l’irréversibilité des processus physiques.

Transformation conforme : une transformation conforme de l’espace-temps est une transformation qui conserve les relations de causalité mais non pas les distances. Le diagramme de Penrose est une application particulière des transformations conformes. Il permet de représenter l’espace-temps sous la forme d’une figure géométrique de dimension finie. Le disque de Poincaré en est une autre.

Transformation de Lorentz : la transformation de Lorentz est une transformation de l’espace-temps qui conserve la vitesse de la lumière. C’est la base du formalisme de la théorie de la relativité restreinte.

Trou de ver : le trou de ver est une solution géométrique de l’équation d’Einstein permettant de créer un raccourci dans l’espace-temps. De nombreuses solutions de ce type ont été proposées mais, à ce jour, toutes font l’hypothèse de l’existence d’une matière exotique (matière dont les propriétés vont à l’encontre de tout ce que l’on connaît) pour permettre le passage de matière ou dénergie au travers du trou de ver.

Trou noir : lorsque la quantité de matière comprise dans un volume donné dépasse une certaine limite, il se forme un trou noir. Un trou noir est une zone de l’espace-temps délimitée par une surface telle qu’en chaque point de la surface le cone du futur soit dirigé vers l’intérieur de la surface. A priori, aucun corps et aucun rayon ayant franchi la surface entourant le corps noir (son horizon des événements) ne peut échapper à l’attraction de celui-ci. Le modèle le plus simpe d’un trou noir est celui d’une masse dépourvue de mouvement de rotation. Un tel trou noir est décrit par la métrique de Schwarzschild. L’horizon d’un trou noir de Schwarzschild est une sphère dont le rayon est appelé rayon de Schwarzschild. Selon la théorie de la relativité générale, toute la masse du trou noir est concentrée dans une singularité centrale. La conjecture BKL suppose au contraire que la métrique au centre d’un trou noir est sujette à de violentes instabilités. Stephen Hawking a montré que, contrairement à toute attente, un trou noir pouvait rayonner, donc s’évaporer.

Trou noir en rotation : le comportement d’un trou noir en rotation est plus complexe que celui d’un trou noir de Schwarzschild. Son horizon des événements est un ellipsoïde. Il comporte en outre une région, appelée ergosphère, qui englobe l’horizon des événements et dans laquelle toute matière est entraînée dans un mouvement de rotation à grande vitesse dans un disque d’accrétion. Un tel trou noir forme un quasar : un objet d’une luminosité extrême. Un trou noir en rotation est décrit par la métrique de Kerr.

U

Unitarité : en physique quantique, un opérateur U est dit unitaire si UU* = U*U = I. Un opérateur unitaire est donc réversible. Toutes les interactions connues sont unitaires. Par contre, toute mesure introduit un phénomène de réduction du paquet d’ondes qui n’est pas réversible et qui n’est donc pas unitaire.

Unité astronomique (UA) : distance moyenne entre la Terre et le Soleil. Une UA vaut 149,6 millions de km.

Unités et grandeurs fondamentales de la physique :

 

constante de gravitation :

G = 6.67259   10-11  m3/kg/s²

 

constante de Planck :

h = 6,62606957   10-34 J.s

 

vitesse de la lumière :

c = 299 792 458  m/s

 

constante de Boltzmann :

k = 1.381  10-23  J/K

 

permittivité du vide :

e0 = 8.85  10-12 kg−1·m−3·A2·s4

 

 

électron-volt :

eV = 1.601 10-19 J = 1.783 10-36 kg

 

masse du proton :

mp = 938 MeV

 

masse de l'électron :

me = 511 keV

 

longueur de Planck :

lP = ( h G / 2π c3 )1/2 = 1.616 10-35 m

 

temps de Planck :

tP = ( h G / 2π c5 )1/2 = 5.39 10-44 s

 

masse de Planck :

mP = ( h c / 2π G )1/2 = 2.176 10-8 kg

 

température de Planck :

TP = ( h c5 / 2π G k2 )1/2 = 1.42 1032 K

V

Valence : les électrons d’un atome sont caractérisés par quatre nombres quantiques. Le premier de ces nombres quantiques représente le niveau d’énergie de l’électron. Les électrons qui ont un même niveau d’énergie occupent une même couche. Le nombre d’électrons pouvant occuper une même couche est limité (principe d’exclusion de Pauli). Lorsqu’une couche est remplie, les électrons occupent une couche correspondant à un niveau d’énergie plus élevé. La couche d’énergie la plus élevée est appelée couche de valence. Son niveau d’occupation détermine les propriétés chimiques de l’élément considéré. Ce mode d’organisation et son caractère périodique permettent d’établir une classification périodique des éléments.

Valeur propre, vecteur propre : dans le formalisme quantique une particule ou un système quantique sont représentés par une fonction d’onde définie sur un >espace de Hilbert. Une fonction d’onde est un vecteur de cet espace de Hilbert (noté |Ψ>). Une mesure ou une interaction prennent la forme d’un opérateur sur cet espace de Hilbert. Appelons M un opérateur de ce type. Les vecteurs propres de cet opérateur sont les vecteurs |Ψ> qui sont tels que M|Ψ> = μ|Ψ>. On dit de μ que c'est une valeur propre de l'opérateur M. Les valeurs propres sont une clef pour comprendre la quantification.

Variables cachées : Einstein, qui ne pouvait pas se résoudre à accepter certains paradoxes de la physique quantique (en particulier celui de la non-localité qui émerge de l’intrication quantique) a émis l’hypothèse que la théorie quantique ne décrivait pas complètement la réalité et qu’il existait des variables cachées dont la connaissance permettrait de connaître complètement le comportement des particules. Il a formulé ses objections à l’orthodoxie quantique dans un article où il énonce ce que l’on a appelé depuis le paradoxe EPR.

Variété : la notion de variété est une généralisation celle d’espace permettant de prendre en compte une courbure et une topologie quelconques. Les variétés sont à la base de la géométrie riemanienne. L’espace-temps de la relativité générale est une variété à 4 dimensions (on dit une 4-variété). Dans une variété différentielle on peut définir en tout point un espace euclidien homéomorphe au voisinage de ce point. Cela veut dire qu’on peut utiliser une représentation euclidienne au voisinage de ce point qui constituera une très bonne approximation. Dans le cas de la 4-variété de la relativité générale, l’espace homéomorphe que l’on utilise est l’espace-temps de Minkowski.

Vitesse de la lumière : la vitesse de la lumière est invariante quelque soit le changement de repère inertiel. C’est la base de la relativité restreinte. Les transformations qui laissent invariante la vitesse de la lumière sont les transformations de Lorentz. La vitesse de la lumière est une constante fondamentale de la physique.

W

W- et W+ : les bosons Z0, W- et W+ sont les bosons de jauge de l’interaction faible.

WIMP : Weakly Interactive Massive Particule. Dénomination donnée à la >matière noire dont on pense qu’elle est constituée de particules de masse interagissant très peu avec la matière ordinaire (matière baryonique) et les photons.

Y

Yang-Mills : la théorie de Yang-Mills est une théorie de jauge qui est à la base des théories de champ quantique décrivant les interactions dans le cadre du modèle standard des particules. La théorie de Yang-Mills prévoit que les bosons associés aux champs qu’elle décrit ont une masse nulle (donc une portée infinie). Elle doit être associée au mécanisme de brisure de symétrie de Brout, Englert et Higgs (mécanisme BEH) pour être appliquée à l’interaction électrofaible et à l’interaction forte de façon à rendre compte de leur portée limitée.

Z

Z0 : les bosons Z0, W- et W+ sont les bosons de jauge de l’interaction faible.

 

A B C D E F G H I J K L M N O P Q R S T U V W X Y Z   Unités