Un peu de physique...

Accueil

        Métrique de Friedmann

        Effondrement gravitationnel

        Solutions particulières

        Modèle standard

 

Annexe 1 : Brisure de symétrie

Annexe 2 : Fond diffus cosmologique

 

Modèle standard de la cosmologie

 

Ce site a été entièrement refondu. Retrouvez la version mise à jour en cliquant sur le lien ci-dessous.

 

Nous avons étudié au chapitre précédent trois solutions des équations d’Einstein décrivant l’évolution d’un Univers homogène et isotrope. Ces trois solutions permettent de construire un scenario décrivant l’histoire de l’Univers depuis son origine. Ce modèle, appelé modèle standard de la cosmologie, est aujourd’hui accepté par la grande majorité des astrophysiciens. Il est en effet confirmé par d’innombrables observations faites par des équipes de scientifiques tout autour du monde en utilisant des instruments de plus en plus précis, qu’ils soient terrestres ou embarqués à bord de satellites.

La théorie du Big-bang

La première théorie du Big-bang a été formulée par Georges Lemaître. Edwin Hubble venait de découvrir la fuite des galaxies1 et Lemaître avait une bonne compréhension des équations dynamiques de l’Univers. Il les avait (re)découvertes peu de temps après qu'Alexander Friedmann les aient formulées pour la première fois.

En « remontant le temps » grâce à ses équations, Lemaître arriva à la conclusion que l’Univers était né d’un « atome primitif » d’une densité énorme et qui se serait fractionné en une infinité de particules en se dilatant. La proposition de Lemaître ne reçut pas un accueil très enthousiaste. Lemaître ne cachait pas ses convictions religieuses : certains l’accusèrent de vouloir donner un fondement scientifique au Fiat lux de la Bible. En 1949, l’astrophysicien anglais Fred Hoyle2 tourna en dérision la théorie de Georges Lemaître. Lors d’une émission radiophonique, il la résuma ironiquement en employant une formule qui est restée célèbre : big bang !

Il est vrai qu’à l’époque Lemaître avait peu d’arguments pour convaincre la communauté scientifique. Les arguments sont venus plus tard… C’est le développement spectaculaire de la physique des particules qui a permis de les construire un à un et d’accumuler les pièces à conviction.

C’est logique : si l’Univers est en expansion continue depuis son origine, cela signifie qu’il a été beaucoup plus dense et plus chaud auparavant. En rembobinant le film de l’histoire de l’Univers, on est confronté à des conditions de température et de pression du fluide cosmique de plus en plus élevées. Tout se passe bien pendant des milliards d’années mais il arrive un moment (dans le passé) ou l’histoire s’emballe. Les températures et les pressions deviennent proprement astronomiques. C’était inconcevable pour l’époque : on ne disposait pas alors de la théorie physique permettant d’analyser la situation. Quand on ne comprend pas les choses, on préfère les nier… Pour de nombreux scientifiques, « cela ne se pouvait pas ».

La physique quantique a apporté les outils théoriques qui manquaient aux scientifiques de l’époque. Les expériences menées grâce aux accélérateurs de particules de plus en plus puissants construits au cours de la deuxième moitié du XXème siècle ont permis de reproduire les conditions de température et de pression hallucinantes prédites par la théorie du Big-bang. Et cela a permis d’assembler les pièces d’un puzzle qui, s’il n’a plus grand-chose à voir avec la théorie de l’atome primitif de Georges Lemaître, donne corps à celle du Big-bang.

Le scenario originel : d’un univers de radiations à un univers de poussières

Aux tout premiers instants de l’Univers, le rayonnement prédomine. La matière quant à elle est relativiste : la température est telle que la vitesse des particules est proche de celle de la lumière. De fait, les particules de matière se comportent comme le rayonnement. Le modèle qui s’applique le mieux est celui de l’univers de radiations.

La densité d’énergie au sein de l’Univers se décompose en deux parties : celle qui est relative à l’énergie du rayonnement, celle qui est relative à l’énergie des particules de matière. A l’origine, la première est très largement supérieure à la seconde :

 

(1)

Comme nous l’avons vu au chapitre précédent, la densité d’énergie du rayonnement décroît rapidement à mesure que l’Univers s’étend :

 

(2)

L’expansion de l’Univers affecte également les particules de matière. Or la densité d’énergie relative à un fluide composé de particules de matière décroît moins vite que la densité d’énergie du rayonnement :

 

(3)

Il arrive un moment où la courbe en et la courbe en se croisent. Les particules de matière cessent d’être relativistes et la densité d’énergie de matière prend le dessus sur la densité d’énergie de rayonnement. On passe alors à un modèle de type univers de poussières. Les astrophysiciens estiment que cela s’est produit alors que l’Univers avait une température de 10 000 K et un âge de 70 000 ans environ3.

La transition entre un univers de radiations et un univers de poussières joue un rôle déterminant dans l’histoire de l’Univers. Les particules de matière qui composent l’Univers peuvent être classées en deux catégories : la matière baryonique4, qui est sensible à l’interaction électromagnétique, et la matière noire5 qui ne l’est pas. La matière noire, qui a perdu son caractère relativiste, commence à s’effondrer6 sur elle-même. Ce n’est pas le cas de la matière baryonique. En effet, tant que la matière baryonique reste couplée au rayonnement, la pression engendrée par celui-ci empêche le processus d’effondrement de se produire. L’effondrement de la matière noire précède donc celui de la matière baryonique. Il va permettre la création des puits de potentiel gravitationnel qui vont accélérer considérablement le processus de formation des galaxies lorsque la matière baryonique commencera à s’effondrer. Les astrophysiciens estiment que, sans ces puits de potentiel, les galaxies n’auraient pas pu se former comme elles l’ont fait pendant le premier milliard d’années qui a suivi le Big-bang compte tenu de la grande homogénéité du fonds diffus cosmologique7 et de l'expansion continue de l'Univers.

Température de l’Univers

Le modèle d’univers de radiations et le modèle d’univers de poussières permettent de faire un lien direct entre « l’âge de l’Univers » et la constante de Hubble. Dans ces deux modèles le temps varie en raison inverse de :

 

 

Comme nous le verrons plus bas, l’évolution de la température moyenne de l’Univers au fil du temps joue un rôle important dans l’histoire de l’Univers. Il est donc essentiel de pouvoir la déterminer.

Pour ce faire, il convient de trouver une relation entre le temps et la densité d’énergie. Il est en effet facile de passer de l’énergie à la température.

Nous allons utiliser pour cela l’une des formulations de la première équation de Friedmann :

 

 

La constante cosmologique étant très faible, on peut en déduire la valeur de en fonction de la densité d’énergie :

 

(4)

Calculons la densité d’énergie dans le cas d’un univers de radiations. Elle se déduit de la loi de Stefan-Boltzmann applicables au rayonnement d’un corps noir :

 

(5)

Si on se réfère à la situation qui prévalait lors du découplage entre la matière baryonique et le rayonnement8 on peut écrire :

 

(6)

On en déduit très aisément la relation entre la variable temps et la température :

 

(7)

Dans un univers de radiations, la température varie comme l’inverse de la racine carré du temps.

Intéressons-nous maintenant à l’univers de poussières. Celui-ci peut être considéré comme un gaz parfait occupant tout l’Univers. Sa température peut être calculée en appliquant le théorème du viriel. Ce théorème stipule que la relation suivante s’applique pour toute particule de ce gaz :

 

(8)

Dans le cas qui nous intéresse, le gaz est composé majoritairement de protons. L’énergie potentielle d’un proton dans un nuage de rayon s’exprime de la manière suivante :

 

(9)

L’énergie cinétique d’un proton s’écrit9 :

 

(10)

La température s’en déduit immédiatement :

 

(11)

On peut étendre cette relation à un volume comobile10 d’Univers de dimension :

 

(12)

La quantité d’énergie comprise à l’intérieur d’un volume comobile de l’univers de poussières est conservée. On peut donc écrire :

 

(13)

Ceci nous permet d’en déduire la relation entre la variable temps et la température dans le cas d’un univers de poussières :

 

(14)

Comme on le voit, le passage du modèle de radiations au modèle de poussières se traduit par un ralentissement de la décroissance de la température avec le temps.

L’inflation cosmique

Le scenario que nous avons présenté dans le paragraphe précédent décrit remarquablement bien l’histoire de l’Univers dès les premiers instants qui suivent le Big-bang. Il soulève cependant deux questions très embarrassantes.

La première de ces questions est la suivante. Prenons deux régions situées aux confins de l’Univers visible et diamétralement opposées l’une par rapport à l’autre. Le rayonnement qui nous parvient de ces deux régions de l’Univers a mis 13,8 milliards d’années à nous parvenir : il était donc impossible que ces deux régions aient pu être en contact, et à plus forte raison en équilibre thermique, à une époque antérieure. Or les mesures effectuées à l’aide du satellite Planck montrent que la température du rayonnement du fond diffus cosmologique est la même dans toutes les directions (avec une précision de l'ordre du cent millième de degré). Comment expliquer une telle coïncidence ?

La seconde question est tout aussi dérangeante : la densité d'énergie de l'Univers est aujourd'hui éstimée à une valeur proche de sa densité critique. Or, le moindre écart entre ces deux valeurs au moment du Big-bang devrait se traduire par une forte divergence aujourd'hui. Une valeur un peu plus faible que la densité critique conduit à un Univers en expansion et à une dilution de la matière. A l'inverse, une valeur un peu plus forte se traduit par une concentration de la matière dans un Univers en rétraction. Au bout de 13,8 milliards d'années un simple écart de 0,01% à l'origine conduirait aujourd'hui à un Univers infiniment dilué ou incroyablement concentré. Le fait qu'il ait une densité si proche de la densité critique est une autre coïncidence difficile à expliquer. Un écart aussi faible implique une égalité quasi-parfaite au moment du Big-bang !

Pour résoudre ces deux énigmes, Alan Guth, Andreï Linde et Alexander Vilenkin ont proposé une solution basée sur un scenario d’inflation cosmique11. En partant d’hypothèses différentes, ils démontrent que l’Univers a pu connaître une phase très brève d’inflation exponentielle de type « De Sitter » immédiatement après le Big-bang, inflation qui a multiplié les dimensions de l’Univers par un facteur voisin de 1030. Une telle inflation permet de répondre aux deux questions :

  • Deux points initialement très proches et qui se trouvaient à l’équilibre thermique peuvent très bien se retrouver à des distances énormes l’un de l’autre après une phase d’inflation qui multiplie les dimensions de l’Univers par un facteur 1030.
  • L’augmentation dans de telles proportions du rayon de courbure a littéralement aplati l’Univers et l’a rendu quasi-euclidien, et ceci même après l'expansion de 13,8 milliards d’années qui a suivi. Or un Univers euclidien implique que sa densité soit égale à la densité critique. CQFD.

Le principe de ces deux scenarii est le même : ils partent tous deux d’un champ scalaire remplissant l’Univers d’une densité d’énergie uniforme. C’est la forme du potentiel dont dérive ces champs qui diffère et qui détermine les conditions dans lesquelles se produit l’inflation.

Le mécanisme qui conduit à l’inflation est le suivant. Dans un premier temps, le champ se trouve dans un état dit de faux-vide. Cela signifie qu’il se trouve dans un état d’énergie potentielle qui n’est pas minimale12. Le faux-vide est un état métastable. Si, pour une raison ou pour une autre (fluctuation quantique par exemple), la valeur du champ s’écarte de celle correspondant au faux-vide, la zone dans laquelle se produit cet événement entame une phase de transition pour atteindre l’état d’énergie minimale correspondant au vrai vide.

Cette transition est illustrée par la figure 1. La bille bleue symbolise l’énergie potentielle du champ dans l’état de faux-vide. La bille orange symbolise l’énergie potentielle minimale. Si la bille bleue est délogée de sa position, elle se met à « rouler » et finit par rejoindre une position au fond de la rigole. La transition ne peut se produire que si la température de l’univers est inférieure à une certaine valeur. Au-dessus de cette valeur, l’agitation thermique empêche le champ de rester dans un état d’énergie minimum. La figure 2 illustre cette situation. Lorsque la température est supérieure à , l’agitation thermique est prépondérante par rapport à l’énergie potentielle (courbe rouge). Si la température descend en dessous de , l’agitation thermique n’est plus suffisante pour prendre le pas sur l’énergie potentielle (courbe bleue).

Figure 1 : Potentiel d’un champ scalaire en équilibre métastable. Gilles Cohen-Tannoudji et Alain Spiro comparent sa forme à celle d’un chapeau mexicain.

Figure 2 : Potentiel d’un champ scalaire à différentes températures. La courbe rouge représente le potentiel pour les températures élevées, la courbe bleue pour des températures plus basses.

Revenons à l’état de faux-vide. La caractéristique d’une zone de faux-vide est qu’elle a une pression négative. Pourquoi un volume rempli de faux vide est-il le siège d’une pression négative ? La raison est simple. Supposons une boîte de volume emplie de faux vide. Supposons que cette boîte se trouve dans un volume plus grand de vrai vide. Supposons enfin que la densité d’énergie potentielle correspondant au faux vide soit égale à . Pour augmenter le volume de la boîte de la quantité dV il faut lui fournir l’énergie . Ceci correspond bien à une pression négative. On peut d’ailleurs démontrer cela de façon rigoureuse. Soit un champ saclaire et son énergie potentielle. On peut montrer que :

 

et

(15)

Si on se retrouve dans des conditions voisines de celles d’un Univers de De Sitter. Dès lors, toutes les conditions sont réunies pour que la région concernée entre dans une phase d’inflation exponentielle (voir le chapitre sur le modèle de De Sitter). Cette inflation durera tant que le champ n’a pas atteint un état d’énergie minimum. A l’issue de cette période d’inflation, toute l’énergie du faux vide est libérée d’un coup. Elle conduit à la matérialisation de cette énergie sous forme de champs et de particules : ceux-là même qui composent notre Univers aujourd’hui. Cet événement très bref est appelé le préchauffage. En interagissant, ces éléments (champs et particules) parviendront ensuite à l’équilibre thermique. Les astrophysiciens appellent cette phase le réchauffage.

Figure 3 : Le modèle d’Alan Guth.

A première vue, l’apparition de toute cette énergie semble relever d’un mécanisme de génération spontanée. Comment la densité d’énergie potentielle du champ scalaire peut-elle rester constante tout au long de la phase d’inflation ? N’y-a-t-il pas violation du principe de conservation de l’énergie ? La réponse est non. Les équations de Friedmann vérifient ce principe de conservation :

 

(16)

Toute l’énergie « créée » lors de la phase d’inflation est compensée par le travail négatif de la pression. Ce travail négatif est, d’une certaine manière, fourni par l’énergie potentielle gravitationnelle. L’énergie prélevée sur le potentiel gravitationnel par le biais de la pression négative compense la création d’énergie nécessaire au maintien du champ scalaire. La dynamique de l’équation d’Einstein est à l'origine de ce transfert.

Inflation éternelle et univers-bulle

Pour Alan Guth, la période d’inflation a débuté 10-34s après le Big-bang et n’a pas excédé 10-33s. Elle est liée à un champ scalaire particulier (voir figure 3) et la transition s’effectue dans des conditions de température données. Alexandre Vilenkin et Andreï Linde privilégient un scenario d’inflation éternelle. Pour ces deux chercheurs, le champ scalaire qui baigne l’Univers produit une inflation exponentielle continue. Dans cet Univers, des fluctuations quantiques conduisent de manière aléatoire certaines régions à entamer une transition vers un état d’énergie minimale plus stable, ce qui interrompt leur expansion exponentielle. Il se crée ainsi des univers-bulles au sein desquels l’expansion se poursuit à un rythme beaucoup plus raisonnable. Notre Univers serait l’un de ces univers-bulles.

Ce scenario conduit directement à la notion de multivers, dans lequel d’autres univers-bulles ne cessent de se créer de manière aléatoire au-delà de notre horizon cosmique. Ces univers-bulles sont déconnectés les uns des autres, l’Univers au sein duquel ils naissent ne cessant de s’étendre exponentiellement. Andreï Linde avance même l’hypothèse selon laquelle les lois de la physique peuvent différer d’une bulle à l’autre. Si l’on revient à l’illustration de la figure (1), on voit que la bille peut terminer sa course en différents endroits de la rigole. A chacun de ces endroits peut correspondre un couplage différent avec les autres champs emplissant l’Univers, donc des caractéristiques fondamentales différentes pour les particules élémentaires. Andreï Linde explique de cette façon l’extraordinaire ajustement des constantes fondamentales de la physique nécessaire pour permettre le développement de l’Univers tel que nous le connaissons. La théorie des cordes supporte ce raisonnement en montrant comment la topologie des dimensions supplémentaires qu’elle présuppose conduit à des lois physiques différentes.

Modèle standard de la cosmologie

Le scenario construit par les scientifiques à partir des trois modèles d’expansion que nous avons évoqués (radiations, poussières, De Sitter) combine la théorie de la relativité générale avec les avancées les plus récentes de la physique des particules. Il porte le nom de modèle standard de la cosmologie. On peut résumer sa chronologie de la manière suivante :

  • Un Big-bang immédiatement suivi par une phase d’inflation exponentielle extrêmement brève.
  • Une première phase d'expansion rapide de type Univers de radiations.
  • Une transition vers un modèle d'Univers de poussières à mesure que l'Univers se dilue.
  • Une longue phase de décélération progressive de l'expansion au cours de laquelle la constante cosmologique prend progressivement de plus en plus l'importance.
  • Au bout d’en temps estimé à 7 milliards d’années environ, une reprise de l’accélération de l'expansion.

De nos jours, l'espace est plat (euclidien) et soumis à une constante cosmologique positive. Il se comporte donc comme un univers de poussières de courbure nulle et de Λ positif.

Le modèle standard de la cosmologie est aussi appelé Λ-CDM : Lambda-Cold Dark Matter. Lambda parce qu’il fait appel à une constante cosmologique positive représentée par le symbole Λ. Cold dark matter parce qu’il suppose l’existence de la matière noire. La matière noire est nécessaire pour expliquer la cohésion des galaxies compte tenu de leur vitesse de rotation. Si elle n’existait pas, la seule matière « visible » ne suffirait pas à équilibrer la force centrifuge : les étoiles auraient dû se disperser depuis longtemps. L’existence de la matière noire a été suggérée dès 1933 par l’astronome Fritz Zwicky. Elle a été confirmée depuis. Cette matière est « froide » parce qu’elle ne rayonne pas (ce qui explique aussi qu’elle ne puisse pas former d’étoiles).

Figure 4 : Modèle standard de la cosmologie.

La validité du modèle standard de la cosmologie s’appuie maintenant sur de nombreuses vérifications expérimentales :

  • La toute première confirmation expérimentale est celle apportée par la mesure de la vitesse de récession des galaxies. Cette découverte faite par Edwin Hubble en 1929 a été depuis lors maintes fois confirmée. Les mesures très précises effectuées désormais sur le décalage vers le rouge des raies d’émission des étoiles ou des galaxies confirment avec une grande précision le modèle d’un univers en expansion.
  • La découverte en 1964 du fond diffus cosmologique (CMB : cosmological microwave background) par Arno Penzias et Robert Wilson est l’argument qui a fait basculer l’opinion des scientifiques. Ce rayonnement fossile qui fait écho au découplage entre la matière et la lumière 380 000 ans après le Big-bang est la preuve la plus médiatisée de la validité du modèle standard. Le découplage entre matière et rayonnement est un phénomène qui avait été prédit par George Gamow et Ralph Alpher en 1949. Le fond diffus cosmologique est composé d’un rayonnement uniforme (de type rayonnement d’un corps noir) qui se propage dans toutes les directions. Les mesures extrêmement précises effectuées par la sonde WMAP puis par le satellite Planck ont démontré l’extraordinaire coïncidence entre le modèle théorique et les mesures.
  • La densité relative des éléments légers (hydrogène, hélium, deutérium, lithium) dans l’Univers est également considérée comme un argument solide en faveur du modèle standard. Le calcul de cette densité fait appel aux acquis de la physique des particules. Alors que la théorie prédit une proportion d’hélium de 24,82%, la mesure la plus précise donne une valeur de 24,9% avec une incertitude de 0,9%. C’est à nouveau George Gamow et Ralph Alpher qui ont décrit le mécanisme de formation des éléments légers dans l’Univers (nucléosynthèse primordiale).
  • La correspondance presque exacte entre la répartition spectrale des ondes acoustiques baryoniques (BAO : baryonic acoustic oscillations) prédites par la théorie et celle mesurée par les satellites WMAP et Planck est également une preuve très convaincante en faveur de ce modèle. Avant le découplage entre photons et matière, l’univers est un fluide (un plasma chaud) dans lequel se propagent des ondes de pression dues aux interactions entre la lumière et les particules. Les ondes acoustiques baryoniques résultent de la propagation de ces ondes de pression.
  • La mise en évidence de l’accélération de l’expansion par les astrophysiciens Saul Perlmutter et Adam Riess complète ce modèle. Les mesures effectuées par ces deux astrophysiciens sur un certain nombre de supernovæ de type IA situées à des distances différentes leur ont en effet permis de démontrer en 1998 que l'accélération de l'expansion avait repris il y a 7 milliards d’années. Cette découverte a remis à l’honneur la notion de constante cosmologique qu’Einstein avait abandonnée après la découverte de la fuite des galaxies par Hubble.
  • La coïncidence entre les irrégularités observées sur le fond diffus et la structure filamentaire de la répartition des amas de galaxies n’est pas, à proprement parler une preuve de la validité du modèle. Elle est néanmoins suffisamment frappante pour être mise au crédit de celui-ci.

Modèle standard et paradoxe d'Olbers

Le modèle standard permet en outre de résoudre le paradoxe d'Olbers. On attribue à l’astronome Heinrich Olbers (1758-1840) la paternité de ce paradoxe mais il semble que d’autres astronomes aient fait la même constatation bien avant lui. Si l’on suppose que l’Univers est infini, qu’il a toujours existé et que la densité d’étoiles est uniforme, des rayons lumineux devraient nous provenir de toutes les directions avec la même intensité. On peut objecter à cela que les étoiles proches nous paraissent plus lumineuses que les étoiles lointaines mais, dans un angle solide donné, le nombre d’étoiles lointaines compense exactement leur apparent déficit de luminosité. Autrement dit, le ciel devrait être uniformément lumineux de jour comme de nuit !

L’écrivain Edgar Allan Poe a proposé une solution à ce paradoxe qui n’est pas très éloignée de celle qui est avancée par la cosmologie moderne. Il remarque en effet que le paradoxe ne tient plus dans un Univers dont l’âge est fini. François Arago fera la même constatation quelques années plus tard.

La théorie du Big-bang donne un fondement théorique au raisonnement de Poe et d’Arago. Si l’âge de l’Univers est limité à 13,8 milliards d’années, notre horizon n’est pas infini. Nous ne recevons la lumière que des étoiles qui se trouvent dans cet horizon et dont les rayons ont eu le temps de nous parvenir (ce qui apporte une contrainte supplémentaire compte tenu de leur durée de vie). L’expansion de l’Univers ajoute à cela que les étoiles les plus éloignées sont fortement décalées vers le rouge et qu’une partie de leur rayonnement sort du domaine visible.

Démonstration du paradoxe d’Olbers

Soit un cône d’ouverture quelconque, celle d’une lunette astronomique par exemple. Découpons ce cône en une série de portion de coquilles de la manière suivante. Chaque coquille est composée d’un volume constitué par l’intersection du cône et deux portions de sphère de rayon R et R+dr. On suppose que R est égal à k dr.

Si la repartition des étoiles est la même partout, le nombre d’étoiles comprises dans la coquille d’indice k s’écrit :

   

n étant une constante que je vous laisse le soin de calculer à partir de la densité d’étoiles dans l’Univers.

Soit L la luminosité moyenne d’une étoile, le flux de lumière reçu par la lunette en provenance de cette étoile s’écrit :

   

m étant une autre constante tout aussi facile à calculer. La quantité de lumière reçue par la lunette en provenance de la coquille d’indice k est donc constante et égale à :

   

Si l’on considère la contribution de toutes les coquilles jusqu’à l’infini, on voit que F est nécessairement infini, et ceci quelle que soit l’ouverture de la lunette ! On objectera que l’on comptabilise de cette manière toutes les étoiles qui sont sur une même ligne de visée alors que la première qui se trouve sur cet axe masque les autres. Supposons maintenant que l’on se limite à la première que l’on peut rencontrer. Quelle que soit la direction dans laquelle on pointe la lunette, on rencontre toujours une étoile. Soit Ω un angle solide quelconque, il sera donc, du point de vue de l’observateur, entièrement recouvert par les taches lumineuses projetées par ces étoiles. Si celles-ci sont lointaines, ces taches seront très petites, presque ponctuelles, si elles sont proches, elles occuperont plus de place. Mais, l’un dans l’autre, on va retrouver les mêmes équations de proportionnalité. Simplement, cette fois, on trouvera que la luminosité en chaque point est égale à celle du soleil !

Matière noire et énergie noire

Le modèle standard de la cosmologie fait appel à deux ingrédients dont les scientifiques n’ont pas encore percé le secret :

  • Une quantité importante de matière noire est indispensable pour expliquer la cohésion des galaxies et leur vitesse de rotation13. La matière noire représenterait près de 26% de la densité de matière dans l’Univers. La recherche de la nature de la matière noire est, aujourd’hui, une priorité pour les astrophysiciens. Sa découverte permettrait de valider définitivement le modèle cosmologique.
  • Sous le vocable d’énergie noire se cache un autre mystère, celui de la nature de la constante cosmologique. Matière exotique ? Champ scalaire ? Propriété du vide ? Différentes théories ont été échafaudées pour tenter de l’expliquer. Tout ce que l’on sait à son sujet aujourd’hui, c’est qu’elle correspond à une densité d’énergie qui représente plus de 69% de la densité critique ! De quoi expliquer largement l’accélération de l’expansion que les astrophysiciens ont pu mesurer.

On peut trouver étonnant que l’on n’ait pas encore découvert cette fameuse matière noire qui est pourtant 6 fois plus abondante que la matière baryonique. Cette abondance est toute relative : comme elle ne participe pas à l’accrétion de la matière sous forme d’étoile ou de planète, la matière noire est partout… mais avec une densité infinitésimale (1,6 GeV par m3). Si on ajoute à cela qu’elle n’est pas sensible à l’interaction électromagnétique, on comprend mieux qu’elle soit bien difficile à détecter.

Figure 5 : Répartition de la densité de l’énergie sous ses différentes formes.

Parmi tous les candidats possibles, les astrophysiciens privilégient la piste des WIMPs (Weakly Interacting Massive Particles). Comme leur nom l’indique, les WIMPs n’interagissent qu’avec la force nucléaire faible (weak interaction). La théorie supersymétrique14 (SUSY), si elle est vérifiée, pourrait fournir des candidats intéressants. Le neutralino, en particulier, une particule de 100 GeV très stable15, ferait l’affaire… L’un des objectifs du LHC, depuis sa remise en route à une puissance nominale de 14 TeV, est de tester la supersymétrie. Pour le moment, rien n’indique qu’elle soit vérifiée.

En ce qui concerne l’énergie noire, la préférence des physiciens se porte sur l’énergie du vide. La physique quantique a bouleversé la perception que nous avons de la notion de vide. En physique quantique, le vide est l’état de plus basse énergie des champs qui emplissent l’Univers. Or, le principe d’indétermination d’Heisenberg ne permet pas qu’un champ puisse avoir une valeur nulle partout :

   

Lorsque ΔE est supérieur localement à l’énergie de masse d’une particule, celle-ci peut se matérialiser pendant un temps Δt. Le vide est donc peuplé de particules virtuelles qui naissent et disparaissent après un temps très bref.

En raison de ces fluctuations incessantes, l’énergie moyenne du vide n’est pas nulle. Le physicien Hendrik Casimir a proposé en 1948 une expérience qui permet de le vérifier (effet Casimir). L’expérience a pu être réalisée en 1978 et elle confirme la prédiction de Casimir16.

Malheureusement les physiciens sont incapables de calculer cette énergie. S’ils ne prennent en compte que les bosons, la valeur qu’ils obtiennent est 10120 trop grande. S’ils considèrent les champs de matière associés aux fermions ils aboutissent à une valeur nulle (l’énergie du vide fermionique est négative et compense l’énergie du vide bosonique). L’énergie du vide est une des énigmes non résolues de la physique contemporaine.

Explications alternatives

L’existence de la matière noire pour expliquer la vitesse de rotation des galaxies ne convainc pas tous les scientifiques. Certains ont proposé d’autres explications en remettant en question la loi de gravitation universelle. En 1983, l’astrophysicien Mordegai Milgrom a proposé une théorie baptisée MOND (Modified Newton Dynamics) qui modifie la loi de Newton pour des corps soumis à une très faible accélération.

La théorie MOND donne de très bons résultats à l’échelle d’une galaxie. Elle s’avère moins efficace lorsqu’on cherche à l’appliquer aux amas et superamas de galaxies : il faut dans ce cas rajouter une dose de matière noire pour retrouver des résultats conformes aux observations. Elle peine également à fournir un scenario convaincant pour la formation des galaxies, avant et après le découplage entre matière baryonique et rayonnement, un domaine dans lequel les scenarios basés sur l’existence de la matière noire se montrent très performants.

Quelques soient les avantages avancés par ses défenseurs, la théorie MOND ne peut prétendre s’imposer comme une théorie remplaçant la théorie de la relativité générale… pour la simple raison que c’est une théorie non relativiste ! Jacob Bekenstein, un astrophysicien connu pour ses travaux sur la thermodynamique des trous noirs, a montré quelques années plus tard qu’on pouvait la dériver d'une théorie relativiste au formalisme assez complexe : la théorie TeVeS (Tenseur Vecteur Scalaire). La théorie TeVeS introduit de nouveaux termes dans l'équation d'Einstein de la relativité. Celle-ci perd de ce fait la limpidité de sa lecture géométrique. Pour retrouver cette lecture géométrique, il faut interpréter les termes supplémentaires introduits par Bekenstein comme une 5ème force qui se rajoute aux quatre forces d'interaction connues aujourd'hui en physique. Troquer une hypothétique partiule de matière noire contre une nouvelle force d'interaction : l'argument initial de plus grande simplicité associé à la théorie MOND passe à la trappe.

Histoire thermique de l’Univers

L’histoire de l’Univers lorsqu’il est dominé par le rayonnement est essentiellement une histoire thermique. L’évolution de la température durant cette phase joue un rôle essentiel dans la genèse du monde tel que nous le connaissons aujourd’huui. La physique quantique décrit un monde où tout est possible : des particules se créent et s’annihilent, les interactions normalement confinées au cœur des atomes peuvent avoir une portée infinie, la différence entre matière et rayonnement est abolie... Un tel monde rend toute forme d’organisation impossible. Le refroidissement de l’Univers qui survient en raison de son expansion met de l’ordre dans tout cela. Il supprime progressivement (sauf à l’échelle locale, bien sûr) la plus grande partie des possibilités offertes par la physique quantique. Ce processus peut prendre diverses formes que nous détaillons ci-après.

Le mécanisme de brisure de symétrie joue un rôle déterminant dans la différenciation entre les interactions. La transition de Higgs17 en est le plus parfait exemple. Lorsque la température est supérieure à la température de transition, le champ de Higgs a une symétrie maximale (sa valeur moyenne est nulle) et il n’interagit pas avec le champ responsable de l’interaction nucléaire faible. Lorsque la température passe en dessous d’une certaine valeur, l’agitation thermique n’est plus suffisante pour empêcher le champ de Higgs de prendre une valeur non nulle qui minimise son énergie potentielle. Dès lors il se met à interagir avec l’interaction nucléaire faible, ce qui confère une masse aux bosons W et Z de cette interaction. La portée de l’interaction faible devient alors très faible18 et elle se différencie de l’interaction électromagnétique (le photon n’interagit pas avec le boson de Higgs).

La température joue également un rôle important dans le mécanisme de création-annihilation de particules. Dans l’univers de radiations, la température est directement liée à l’énergie des photons qui constituent le rayonnement. Si l’énergie transportée par un photon est supérieure à l’énergie de masse d’une paire particule/antiparticule, celle-ci peut surgir naturellement à partir du vide quantique. L’agitation thermique entraîne un brassage continuel de ces particules et antiparticules. Elles s’annihilent au fur et à mesure de leur création.

Lorsque la température descend en dessous de la valeur correspondant à l’énergie de masse d’un type de particules, le mécanisme de création des particules de ce type est interrompu. Il s’en suit une période de destruction massive : lorsqu’une de ces particules rencontre une antiparticule du même type, elles s’annihilent en émettant deux photons très énergiques. Fort heureusement pour nous, un mécanisme encore mal compris introduit une légère dissymétrie entre le nombre de particules et d’antiparticules (une pour un milliard). A l’issue de cette phase de destruction massive il subsiste donc un reliquat de particules… celles qui constituent le monde dans lequel nous vivons. Andreï Sakharov a exprimé en 1970 les conditions qui sont nécessaires pour permettre ce déséquilibre entre matière et antimatière. Certaines de ces conditions ont été vérifiées expérimentalement.

L’interaction nucléaire forte a une portée très limitée. Elle crée autour des particules qui portent une « charge de couleur » (les quarks) un puits de potentiel. Lorsque la température de l’Univers dépasse le seuil d’énergie correspondant à ce puits de potentiel, l’interaction nucléaire forte a très peu d’impact sur la trajectoire de ces particules. Elles évoluent à l’intérieur d’un plasma très chaud appelé QGP19 (quark-gluon plasma). Lorsque la température tombe en dessous de ce seuil, l’assemblage des quarks et gluons peut commencer : c’est la baryogénèse. Les quarks et les gluons perdent leur liberté. Ils laissent la place aux protons et aux neutrons20. Un peu plus tard, un processus similaire conduira à la formation des premiers noyaux21. On parlera alors de nucléosynthèse primordiale. Les phénomènes physiques en jeu lors de la nucléosynthèse primordiale ont été décrits dès 1949 par George Gamow et Ralph Alpher.

Signalons enfin le phénomène de découplage entre le rayonnement et l’atome d’hydrogène. Tant que la température du rayonnement est supérieure à 3000 K, l’énergie des photons ambiants est suffisante pour ioniser les atomes d’hydrogène. Les photons sont alors en interaction continuelle avec la matière. Ils ne peuvent pas se propager librement. Lorsque la température passe en dessous de 3000 K, il y a découplage. Les photons émis à ce moment vont continuer de se propager indéfiniment. Ils forment aujourd’hui le fonds diffus cosmologique (CMB : Cosmological Microwave Background). La carte du fond diffus cosmologique établie par le satellite Planck nous donne de précieuses indications sur les propriétés de la surface de dernière diffusion, c’est-à-dire sur les propriétés de l’Univers au moment du découplage. Le découplage entre matière et rayonnement avait également été prédit par George Gamow et Ralph Alpher mais la publication de leurs travaux était passée complètement inaperçue. La découverte fortuite du fond diffus cosmologique par Arno Penzias et Robert Wilson en 1964 a joué un rôle déterminant dans l’essor de la cosmologie en tant que sujet scientifique.

Chronologie du modèle standard de la cosmologie

L’histoire commence au sortir de l’ère de Planck. L’ère de Planck marque la limite de nos connaissances actuelles. C’est une terra incognita : au-delà de cette limite, la relativité générale et la physique ne sont plus compatibles . Nos outils théoriques ne fonctionnent plus. Une nouvelle physique est à concevoir : une théorie quantique de la gravitation.

Une fois franchi ce mur de Planck, la gravitation et les autres interactions sont découplées. La théorie de la relativité générale s’applique à la dynamique de l’Univers, la physique quantique aux interactions entre ses constituants. A cet instant de l’histoire de l’Univers, la densité d’énergie est phénoménale et la température avoisine les 1032 K. L’horloge cosmique marque 10-43 s.

Le premier épisode de cette épopée est celui de l’inflation cosmique. Selon Andreï Linde, elle se produit tout de suite après la sortie de l’ère de Planck. Elle est déclenchée par l’existence de fluctuations quantiques. Selon Alan Guth cet épisode a lieu un peu plus tard (10-34 s après le Big-bang) et il est lié à la présence d’un champ scalaire. Dans les deux cas, cette période d’inflation se traduit par une expansion exponentielle des dimensions de l’Univers. Lorsque cette inflation prend fin, elle libère une énergie considérable qui se matérialise sous la forme de particules élémentaires de tous types (voir le paragraphe sur l’inflation). L’apparition des particules élémentaires n’est pas le seul bienfait de l’inflation : elle a également aplati l’Univers qui est devenu euclidien.

L’énergie des particules au sein de l’Univers naissant est colossale : elles sont relativistes. L’Univers a donc toutes les caractéristiques d’un univers de radiations. Il continue son expansion mais de façon beaucoup plus modérée que lors de la période d’inflation. Selon certains physiciens, les trois interactions décrites par la physique quantique (l’interaction forte, l’interaction faible et l’interaction électromagnétique) ne forment alors qu’une seule et même interaction. C’est la théorie de la Grande Unification (GUT en anglais, Grand Unified Theory).

10-35 s

1028 K

1014 GeV

Selon la théorie GUT, il se produit une brisure de symétrie entre l’interaction forte et l’interaction électrofaible qui deviennent indépendantes l’une de l’autre. L’interaction électrofaible réunit l’interaction électromagnétique et l’interaction faible.

10-12 s

1015 K

100 GeV

Une nouvelle brisure de symétrie se produit, celle prédite par Brout, Englert et Higgs (mécanisme BEH). Elle conduit à rendre indépendante l’interaction électromagnétique et l’interaction faible. C’est ce mécanisme BEH qui confère leur masse aux particules élémentaires. L’existence du boson de Higgs a été récemment démontrée grâce à l’accélérateur LHC (Large Hadron Collider) du CERN. Cette découverte achève de valider le modèle standard des particules élémentaires et, par contrecoup, conforte le modèle standard de la cosmologie.

L’univers n’est plus constitué uniquement de rayonnement, de particules de Higgs et de leptons mais la matière reste néanmoins relativiste. Le modèle le mieux adapté est toujours celui d’un univers de radiations.

Débute alors ce que l’on appelle l’ère des quarks. L’univers est rempli d’un plasma de quarks et de gluons (QGP : quark-gluon plasma) en interaction continuelle avec le rayonnement et les leptons. La température est encore bien trop élevée pour que puissent se former des protons et des neutrons.

10-6 s

1013 K

1 GeV

Formation des hadrons (les hadrons sont des assemblages de quarks). La température est descendue suffisamment pour que l'interaction forte puisse piéger les quarks au sein de structures plus complexes. Des hadrons et des anti-hadrons se forment et s'annihilent en permanence. On sait aujourd’hui produire des paires hadron/anti-hadron au sein des accélérateurs de particules.

Lorsque la température est descendue sous un certain seuil, la création de paires hadron/anti-hadron ne compense plus leur annihilation. Il s’en suit une extinction massive des hadrons… Fort heureusement, un déséquilibre infime22 entre matière et antimatière fait qu’il subsiste quelques hadrons (et plus particulièrement des protons et des neutrons). Ce phénomène porte le nom de baryogénèse. Le nombre de baryons dans l’Univers va désormais rester constant.

1 s

1010 K

1 MeV

Découplage entre neutrinos, électrons et photons. Ils étaient auparavant couplés à la matière et rendaient instables les protons :

      

Il existe dans l’Univers un « fond diffus de neutrinos » au même titre qu’il existe un fond diffus cosmologique de photons.

10 s

 

 

Après la disparition de l’immense majorité des hadrons, les paires lepton/anti-lepton dominent la masse de l’Univers. 10s après le Big-bang il se produit le même phénomène d’annihilation massive que pour les hadrons. Seuls quelques leptons survivent.

3 mn à 20mn

109 K

0,1 MeV

Nucléosynthèse primordiale : formation de tous les types de noyaux légers (hydrogène, deutérium, tritium, hélium 3, hélium 4 et lithium). Les composants les plus courants sont l’hydrogène (75%) et l’hélium (25%). La mesure confirme de manière étonnamment précise les prédictions théoriques. C’est le cas en particulier pour le deutérium. Même s’ils sont nettement moins nombreux que les atomes d’hydrogène (un pour 100 000), la présence dans l’univers de la quantité effectivement mesurée de noyaux de deutérium ne pourrait pas s’expliquer sans la nucléosynthèse primordiale.

70 000 ans

10 000 K

 

A cette époque, il y a dans l’univers à peu près autant d’énergie sous forme de matière que de rayonnement. On passe progressivement d’un univers de radiations à un univers de poussières. La matière non relativiste devient dominante et, en particulier la matière noire qui commence à s’effondrer sur elle-même. L’effondrement de la matière noire prépare celui de la matière baryonique.

380 000 ans

3000 K

0,3 eV

L’énergie moyenne des photons n’est plus suffisante pour empêcher la formation d’atomes d’hydrogène. Il y a découplage entre le rayonnement et la matière baryonique. Ce découplage est à l’origine du fonds diffus cosmologique prédit par George Gamow et Ralph Alpher et découvert par Penzias et Wilson en 1964.

La période qui suit est appelée âge sombre : aucune étoile ne brille dans le ciel. En coulisse, l’effondrement gravitationnel de la matière baryonique commence. Il est grandement facilité par l’existence préalable de concentrations de matière noire.

~500 millions d'années

   

La matière s’est condensée au sein de gigantesques nuages qui forment des filaments dans l’Univers. Les premiers quasars apparaissent au sein des protogalaxies.

~1 milliard d'années

   

Les premières galaxies se sont formées, au sein desquelles brillent des étoiles super-massives (100 masses solaires). Elles sont constituées uniquement de composants légers (H, He) et explosent rapidement en supernovæ, ensemençant l’espace avec les premiers éléments lourds. Au moins trois générations d’étoiles vont se sont succéder. En disparaissant, les plus massives d’entre elles dispersent dans l’espace de nouveaux éléments lourds. Ces éléments lourds sont indispensables à la formation de planètes telluriques (comme la Terre) dans le disque d’accrétion autour des étoiles naissantes.

~7 milliards d'années

   

Début de l’accélération de l’expansion. La dilution de la matière permet à la constante cosmologique de prendre la main sur l’évolution dynamique de l’Univers.

~9 milliards d'années

   

Naissance du soleil.

13,8 milliard d'années

2,7 K

10-4 eV

Aujourd'hui !

Validité du modèle standard de la cosmologie

Le modèle standard, comme on l’a dit plus haut, combine la théorie de la relativité générale et la physique des particules. La validation de ce modèle repose sur un certain nombre d’observations astronomiques et de résultats expérimentaux. Le mode de justification dépend de la période considérée dans l’histoire de l’Univers. Si on remonte dans le temps, on peut découper cette histoire en plusieurs phases :

  • La première phase s’étend de nos jours jusqu’au moment du découplage entre la matière et le rayonnement (380000 ans après le Big bang). La dynamique de l’Univers est celle d’un univers de poussières. Il y a un découplage relatif entre ce qui se passe à l’échelle cosmique et ce qui ce passe au sein des galaxies que l’attraction gravitationnelle préserve de la dispersion. La validation du modèle repose essentiellement sur les mesures astronomiques (vitesse et accélération de l’expansion, densité et répartition de la matière). La validité du modèle repose sur la confiance que l'on a dans la théorie de la relativité générale. Cette confiance est grande compte tenu des nombreuses vérifications que l'on a pu réaliser. Les questions qui restent ouvertes tournent autour de la nature et de la répartition de la matière noire et sur la nature de l’énergie noire.
  • La deuxième phase court depuis le moment du découplage jusqu’à celui de la nucléosynthèse primordiale (quelques minutes après le Big bang). Le modèle est celui d’un gaz en expansion dans lequel matière et rayonnement sont en constante interaction. Il combine de façon dynamique le modèle d’univers de radiations et celui d’univers de poussières. Malheureusement, l’Univers pendant cette période est opaque. Aucune observation astronomique ne permet de le percer. Les mesures très précises réalisées grâce au satellite Planck sur le fond diffus cosmologique nous donnent cependant une photographie de l’état de l’Univers à l’issue de cette phase. Celui-ci se trouve dans un état d’équilibre thermique quasiment uniforme. Compte tenu de notre connaissance très détaillée de la physique aux niveaux d’énergie considérés (on reste dans le domaine de la physique semi-classique), on peut en déduire qu’il ne s’est probablement pas passé grand-chose pendant cette période. La mise en œuvre de moyens de détection très sensibles des ondes gravitationnelles (en particulier de leur polarisation) nous permettrait d’améliorer encore notre connaissance sur l’état de l’univers au moment du découplage.
  • La troisième phase remonte jusqu’à l’instant de la brisure de symétrie entre interaction électromagnétique et interaction faible (10-12s après le Big bang : l’entrée en scène du boson de Higgs). On revient alors en terrain connu. La dynamique de l’Univers est celle d’un univers de radiations en expansion. Il est rempli d’un plasma de particules dont le comportement aux différents niveaux de température est parfaitement connu et reproductible dans les accélérateurs de particules actuellement en service, au LHC ou au RHIC (Relativistic Heavy Ion Collider, utilisé pour étudier le plasma quarks-gluons) par exemple. Comme par ailleurs la mesure de la composition de l’Univers nous donne de bonnes indications sur les conditions de la nucléosynthèse primordiale, on a une très bonne confiance sur la chronologie des événements au cours de cette période. Les questions qui restent ouvertes sont celles qui tournent autour de la physique des neutrinos et de la violation de symétrie qui a conduit à l’annihilation de l’antimatière. Les progrès réalisés dans la compréhension des neutrinos et la mise en œuvre de détecteurs de neutrinos plus sensibles permettront peut-être l’émergence d’une astronomie neutrinique. De tels instruments nous permettraient de percer le brouillard dû au couplage entre matière et rayonnement.
  • Au-delà, on rentre en terre inconnue. On atteint les limites du modèle standard des particules. On ne peut qu’émettre des hypothèses sur les événements qui ont précédé. Les expériences actuellement en cours au LHC permettront peut-être de repousser cette frontière : mise en évidence d’autres bosons de Higgs ? découverte de particules de matière noire ? validation des théories de supersymétrie ? théorie de la grande unification ? La recherche est très active sur ces sujets. Si le gap d’énergie entre cette nouvelle physique et celle du modèle standard n’est pas trop important, des découvertes spectaculaires pourraient survenir dans les années qui viennent.

Si on remonte encore plus loin dans le temps, on se heurte au mur de Planck. Cette fois, c’est la théorie de la relativité générale qui déraille. L’hypothèse riemannienne de la continuité et de la dérivabilité de la variété espace-temps n’est plus tenable : elle est battue en brèche par le principe d’indétermination de Heisenberg. Pour percer le mur de Planck, la seule solution possible viendra d’une théorie de la gravitation quantique23. Que s’est-il passé au moment du Big bang ? Y a-t-il eu véritablement un instant zéro ? Impossible de le savoir tant qu’une telle théorie n’a pas été formulée... et vérifiée.

Quelques mots au sujet de la chronologie

Parler de chronologie quand on parle de l’histoire de l’Univers est une gageure. Aucun observateur n’était là au moment du Big bang pour déclencher son chronomètre... Et que penser des datations avancées : comment peut-on annoncer sans rire une date du genre « 10-12s après le Big bang » ? Tout cela peut paraître extravagant. D’autant plus que l’on se place d’emblée dans un contexte relativiste. Le temps n’est-il pas relatif ?

Le temps est incontestablement relatif. La mesure du temps dépend de la vitesse de l’observateur et de la courbure de l’espace-temps à l’endroit et à l’instant où il est mesuré. Comment dès lors établir une chronologie de l’histoire de l’Univers ? Le parti-pris des astrophysiciens est de se baser sur une quantité appelée temps cosmique24. Ce temps cosmique est tout simplement la variable temporelle utilisée dans l’équation de Friedmann. Cette variable temporelle correspond aujourd’hui au temps de nos horloges. Elle n’a plus rien à voir avec le temps propre d’une particule au moment de la nucléosynthèse primordiale...

Tout cela n’a pas beaucoup d’importance : d’une part on est tout à fait capable de calculer le temps propre de ladite particule à partir du temps cosmique et d’autre part la connaissance de ce temps propre ne nous apporterait aucune information. Ce qui est au contraire le cas du temps cosmique. Il existe en effet une relation directe entre temps cosmique et température de l’Univers et entre temps cosmique et énergie moyenne des particules. On sait que l’énergie moyenne des particules au moment de la nucléosynthèse primordiale était de 0,1 MeV et c’est justement ce qui permet de prédire leur comportement dans leurs interactions avec d’autres particules.

Au demeurant, cette datation est peu utilisée par les scientifiques. Elle sert surtout à fixer les idées dans les articles de vulgarisation. Les scientifiques préfèrent en général utiliser la valeur de l’énergie moyenne des particules ou celle de la température. Comme nous l’avons dit plus haut, l’histoire de l’Univers est avant tout une histoire thermique.

En guise de conclusion

Le modèle standard de la cosmologie réalise la synthèse entre les deux théories qui ont révolutionné la physique au XXème siècle. Il nous livre un portrait vertigineux de l’histoire de notre Univers. Il se substitue ainsi aux mythes qui racontaient autrefois aux hommes l’histoire de la Création. L’histoire qu’il nous conte est plus étonnante encore que celles des mythes anciens. Il est, d’une certaine manière, le plus abouti de tous les mythes mais, dans le même temps, il referme définitivement la porte sur eux. Car c’est un récit scientifique. Tout ce qui constitue ce récit peut être vérifié. Et comme tout discours scientifique, il ne cesse de s’enrichir et de se reconstruire à mesure que la connaissance progresse.

L’espace-temps de la relativité générale constitue le cadre grandiose dans lequel se jouent les principaux épisodes de ce récit. C’est la dynamique de cet espace-temps qui a permis les transitions successives qui ont conduit de l’énergie indifférenciée qui prévalait initialement à la matière complexe qui constitue le monde dans lequel nous vivons aujourd’hui. Cette matière a 13,8 milliards d’années. Elle est composée des baryons qui ont été créés dans la première seconde qui a suivi le Big-bang. Ces baryons se sont ensuite assemblés en éléments chimiques dans les haut-fourneaux des étoiles. C’est le second volet de ce grand récit de l’histoire de l’Univers, et c’est cet autre volet que nous allons aborder dans le chapitre qui suit.

 

Notes

1 : Les galaxies ont été découvertes par l’astronome Vesto Slipher au début des années 1920. On croyait auparavant que les galaxies étaient des nébuleuses appartenant à la voie lactée. Il est le premier à avoir démontré qu’elles se trouvaient à des distances extragalactiques.

2 : Fred Hoyle est surtout connu pour ses travaux sur la nucléosynthèse stellaire.

3 : Cette transition ne doit pas être confondue avec le découplage entre matière et rayonnement qui survient lorsque la température de l’Univers est de 3000 K.

4 : Voir le chapitre consacré à la physique quantique et au modèle standard des particules. Les baryons sont des particules composées de 3 quarks (ce sont donc des hadrons). Le proton et le neutron sont des baryons. Ils constituent la plus grande partie de la matière ordinaire.

5 : Voir plus bas le paragraphe sur la matière noire.

6 : Voir le chapitre sur l’effondrement gravitationnel. Il faut noter cependant que l’effondrement de la matière noire ne permet pas la formation d’étoiles « noires ». Celle-ci n’est rendue possible que par l’intermédiaire de l’interaction électromagnétique à laquelle n’est pas sensible la matière noire. La matière noire forme un halo qui sert de creuset à la formation des galaxies.

7 : L’homogénéité du fond diffus cosmologique est le signe d’une grande homogénéité de la densité de matière en interaction avec le rayonnement au moment du découplage.

8 : C’est un choix purement arbitraire. Il permet simplement de se référer à un moment bien identifié de l’histoire de l’Univers.

9 : C’est un résultat de la théorie cinétique des gaz. La théorie cinétique des gaz est présentée en annexe du chapitre sur l’effondrement gravitationnel.

10 : Un volume comobile est un volume dont les dimensions augmentent avec le facteur d’échelle de l’Univers.

11 : L’astrophysicien russe Alexeï Starobinski avait proposé un mécanisme du même type peu de temps auparavant. Sa proposition était restée complètement inconnue des scientifiques occidentaux de fait de l’isolement de l’URSS.

12 : Ce type de transition est calqué sur celui proposé par Robert Brout, François Englert et Peter Higgs pour expliquer la masse des bosons de l’interaction faible. Le champ de Higgs, qui apparaît après la transition, interagit avec ces bosons et cette interaction leur confère une masse apparente (voir l’annexe de ce chapitre).

13 : A l’équilibre, le théorème du viriel permet de calculer directement la masse d’une galaxie en fonction de la vitesse moyenne de rotation des étoiles qui la composent. Ce théorème dit en effet que :     .   Sachant que :        et      ,   il vient :    

14 : La supersymétrie est une extension du modèle standard des particules qui fait correspondre une particule supersymétrique à chacune des particules connues. Voir le complément à ce précis consacré à la physique quantique et au modèle standard des particules.

15 : Pour être cohérente avec la densité actuelle de matière dans l’Univers, la densité de neutralino devrait être d’une particule pour 60 m3... Dans ces conditions, la seule chance de détecter le neutralino est qu’il soit beaucoup plus concentré au cœur des galaxies. Ou alors d’être capable de le produire au LHC.

16 : Les fluctuations du vide sont également à l’origine du décalage de Lamb des raies d’émission de l’hydrogène.

17 : Voir l’annexe de ce chapitre.

18 : La portée d’une interaction est liée à la masse des bosons qui la véhiculent. Un boson de masse nulle signifie que la portée est infinie, un boson massif qu’elle est très petite.

19 : Le plasma QGP fait l’objet d’études approfondies au RHIC (Relativistic Heavy Ion Collider) aux Etats Unis.

20 : Les protons et les neutrons sont un assemblage de trois quarks. On les appelle des baryons. Voir le chapitre consacré à la physique quantique et au modèle standard des particules.

21 : La stabilité des noyaux des atomes est également liée à l’interaction nucléaire forte.

22 : Andreï Sakharov a formulé en 1970 les conditions qui sont nécessaires pour permettre ce déséquilibre. Voir à ce sujet le paragraphe sur l'antimatière dans la section consacrée à la physique quantique.

23 : Les pistes explorées par les chercheurs sont abordées dans les chapitres sur la gravité quantique.

24 : La notion de temps cosmique est précisée dans le chapitre consacré au temps de la conclusion.