|
Le modèle standard de la cosmologie Univers de de Sitter et Univers de radiations |
Le modèle standard de la cosmologie
La première théorie basée sur l'expansion de l'Univers a été formulée par Georges Lemaître. En 1929 Edwin Hubble avait découvert la fuite des galaxies et Lemaître avait une bonne compréhension des équations de la relativité générale. Il avait compris dès 1926 que l'Univers ne pouvait pas être statique. En « remontant le temps » grâce aux équations dynamiques de l'Univers (auxquelles on a donné le nom d'équations de Friedmann, en hommage à Alexander Friedmann qui fut le premier à les établir), Lemaître arriva à la conclusion que l'Univers était né d'un « atome primitif » d'une densité énorme et qui se serait fractionné en une infinité de particules en se dilatant.
La proposition de Lemaître ne reçut pas un accueil très enthousiaste. Lemaître ne cachait pas ses convictions religieuses : certains l'accusèrent de vouloir donner un fondement scientifique au Fiat lux de la Bible. En 1949, l'astrophysicien anglais Fred Hoyle tourna en dérision la théorie de Lemaître. Lors d'une émission radiophonique, il la résuma ironiquement en employant une formule qui est restée célèbre : big bang ! Il est vrai qu'à l'époque Lemaître avait peu d'arguments pour convaincre la communauté scientifique. Les arguments sont venus plus tard... C'est le développement spectaculaire de la physique des particules qui a permis de les construire un à un et d'accumuler les pièces à conviction.
C'est logique : si l'Univers est en expansion continue depuis son origine, cela signifie qu'il a été beaucoup plus dense et plus chaud auparavant. En rembobinant le film de l'histoire de l'Univers, on est confronté à des conditions de température et de pression du fluide cosmique de plus en plus élevées. Tout se passe bien pendant des milliards d'années mais il arrive un moment (dans le passé) ou l'histoire s'emballe. Les températures et les pressions deviennent proprement astronomiques. C'était inconcevable pour l'époque : on ne disposait pas alors de la théorie physique permettant d'analyser ce genre de situation. Quand on ne comprend pas les choses, on préfère les nier... Pour de nombreux scientifiques, « cela ne se pouvait pas ». D'où la popularité de la théorie concurrente, celle de l'Univers stationnaire de Fred Hoyle.
La mécanique quantique et la physique des particules ont apporté les outils théoriques qui manquaient aux scientifiques de l'époque. Les expériences menées grâce aux accélérateurs de particules de plus en plus puissants construits au cours de la deuxième moitié du XXème siècle ont permis de reproduire les conditions de température et de pression hallucinantes prédites par la théorie du Big-bang. Et cela a permis d'assembler les pièces d'un puzzle qui, s'il n'a plus grand-chose à voir avec la théorie de l'atome primitif de Georges Lemaître, donne corps à celle du Big-bang.
Le scenario originel : d'un univers de radiations à un univers de poussières
Aux tout premiers instants de l'Univers, le rayonnement prédomine. La matière, si elle existe, est relativiste : la température est telle que la vitesse des particules est proche de celle de la lumière. Les particules de matière se comportent donc comme le rayonnement (leur énergie de masse est négligeable). Le modèle qui s'applique le mieux est celui de l'univers de radiations :

Cependant, la densité d'énergie du rayonnement décroît rapidement à mesure que l'Univers s'étend :

La densité d'énergie relative aux particules de matière décroît quant à elle moins vite :

Il arrive donc un moment où la courbe en 1/R4 et la courbe en 1/R3 se croisent. Les particules de matière cessent d'être relativistes et la densité d'énergie de matière prend le dessus sur la densité d'énergie de rayonnement. On passe alors à un modèle de type univers de poussières. Les astrophysiciens estiment que cela s'est produit alors que l'Univers avait une température de 10000 K et un âge de 70000 ans environ.
L'évolution de la température moyenne de l'Univers au fil du temps joue un rôle important dans l'histoire de l'Univers. Il est donc essentiel de pouvoir la déterminer. Cela est possible en se basant sur les équations de Friedmann et plus particulièrement sur les deux modèles (radiations et poussières) déjà évoqués. Dans le cas d'un univers de radiations, la température varie comme l'inverse de la racine carré du temps :

Dans le cas d'un univers de poussières, la décroissance est plus lente :

Le scenario que nous avons présenté dans le paragraphe précédent décrit remarquablement bien l'histoire de l'Univers dès les premiers instants qui suivent le Big-bang. Il soulève cependant deux questions très embarrassantes.
La première de ces questions est la suivante. Prenons deux régions situées aux confins de l'Univers visible et diamétralement opposées l'une par rapport à l'autre. Le rayonnement qui nous parvient de ces deux régions de l'Univers a mis 13,8 milliards d'années à nous parvenir : il était donc impossible que ces deux régions aient pu être en contact, et à plus forte raison en équilibre thermique, à une époque antérieure. Or les mesures effectuées à l'aide du satellite Planck montrent que la température du rayonnement du fond diffus cosmologique est la même dans toutes les directions (avec une précision de l'ordre du cent millième de degré). Comment expliquer une telle coïncidence ?
La seconde question est tout aussi dérangeante : la densité d'énergie de l'Univers est aujourd'hui estimée à une valeur proche de la densité critique. Or, le moindre écart entre ces deux valeurs au moment du Big-bang devrait se traduire par une forte divergence aujourd'hui. Une valeur un peu plus faible que la densité critique conduit à un Univers en expansion et à une dilution extrêmement rapide de la matière. A l'inverse, une valeur un peu plus forte se traduit par une concentration de la matière dans un Univers en rétraction. Au bout de 13,8 milliards d'années un simple écart de 0,01% à l'origine conduirait aujourd'hui à un Univers infiniment dilué ou incroyablement concentré. Le fait qu'il ait une densité si proche de la densité critique est une autre coïncidence difficile à expliquer. Un écart aussi faible implique une égalité quasi-parfaite au moment du Big-bang !
Pour résoudre ces deux énigmes, Alan Guth, Andreï Linde et Alexander Vilenkin ont proposé une solution basée sur un scenario d'inflation cosmique. En partant d'hypothèses différentes, ils démontrent que l'Univers a pu connaître une phase très brève d'inflation exponentielle de type « De Sitter » immédiatement après le Big-bang, inflation qui a multiplié les dimensions de l'Univers par un facteur voisin de 1030. Une telle inflation permet de répondre aux deux questions :
- Deux points initialement très proches et qui se trouvaient à l'équilibre thermique peuvent très bien se retrouver à des distances énormes l'un de l'autre après une phase d'inflation qui multiplie les dimensions de l'Univers par un facteur 1030.
- L'augmentation dans de telles proportions du rayon de courbure a littéralement aplati l'Univers et l'a rendu quasi-euclidien, et ceci même après l'expansion de 13,8 milliards d'années qui a suivi. Or un Univers euclidien implique que sa densité soit égale à la densité critique.
Une telle inflation renvoie à un troisième modèle, celui de De Sitter.
Modèle standard de la cosmologie
Le scenario construit par les cosmologistes à partir des trois modèles d'expansion que nous avons évoqués (radiations, poussières, De Sitter) combine la théorie de la relativité générale avec les avancées les plus récentes de la physique des particules. Il porte le nom de modèle standard de la cosmologie. On peut résumer sa chronologie de la manière suivante :
- Un Big-bang immédiatement suivi par une phase d'inflation exponentielle extrêmement brève.
- Une première phase d'expansion rapide de type Univers de radiations.
- Une transition vers un modèle d'Univers de poussières à mesure que l'Univers se dilue.
- Une longue phase de décélération progressive de l'expansion au cours de laquelle la constante cosmologique prend progressivement de plus en plus l'importance.
- Au bout d'en temps estimé à 7 milliards d'années environ, une reprise de l'accélération de l'expansion.
De nos jours, l'espace est plat (euclidien) et soumis à une constante cosmologique positive. Il se comporte donc comme un univers de poussières de courbure nulle et de Λ positif.
Le modèle standard de la cosmologie est appelé Lambda-CDM : Lambda-Cold Dark Matter. Lambda parce qu'il fait appel à une constante cosmologique positive représentée par le symbole Lambda. Cold dark matter parce qu'il suppose l'existence de la matière noire. La matière noire est nécessaire pour expliquer la cohésion des galaxies compte tenu de leur vitesse de rotation. Si elle n'existait pas, la seule matière « visible » ne suffirait pas à équilibrer la force centrifuge : les étoiles auraient dû se disperser depuis longtemps. L'existence de la matière noire a été suggérée dès 1933 par l'astronome Fritz Zwicky. Elle a été confirmée depuis. Cette matière est « froide » parce qu'elle ne rayonne pas (ce qui explique aussi qu'elle ne puisse pas former d'étoiles).
La validité du modèle standard de la cosmologie s'appuie maintenant sur de nombreuses vérifications expérimentales :
- La toute première confirmation expérimentale est celle apportée par la mesure de la vitesse de récession des galaxies. Cette découverte faite par Edwin Hubble en 1929 a été depuis lors maintes fois confirmée. Les mesures très précises effectuées sur le décalage vers le rouge des raies d'émission des étoiles ou des galaxies confirment avec une grande précision le modèle d'un univers en expansion.
- La découverte en 1964 du fond diffus cosmologique (CMB : cosmic microwave background) par Arno Penzias et Robert Wilson est l'argument qui a fait basculer l'opinion des scientifiques. Ce rayonnement fossile qui fait écho au découplage entre la matière et la lumière 380 000 ans après le Big-bang est la preuve la plus médiatisée de la validité du modèle standard. Le découplage entre matière et rayonnement est un phénomène qui avait été prédit par George Gamow et Ralph Alpher en 1949. Le fond diffus cosmologique est composé d'un rayonnement uniforme (de type rayonnement d'un corps noir) qui se propage dans toutes les directions. Les mesures extrêmement précises effectuées par la sonde WMAP puis par le satellite Planck ont démontré l'extraordinaire coïncidence entre le modèle théorique et les mesures.
- La densité relative des éléments légers (hydrogène, hélium, deutérium, lithium) dans l'Univers est également considérée comme un argument solide en faveur du modèle standard. Le calcul de cette densité fait appel aux acquis de la physique des particules. Alors que la théorie prédit une proportion d'hélium de 24,82%, la mesure la plus précise donne une valeur de 24,9% avec une incertitude de 0,9%. C'est à nouveau George Gamow et Ralph Alpher qui ont décrit le mécanisme de formation des éléments légers dans l'Univers (nucléosynthèse primordiale).
- La correspondance presque exacte entre la répartition spectrale des ondes acoustiques baryoniques (BAO : baryonic acoustic oscillations) prédites par la théorie et celle mesurée par les satellites WMAP et Planck est également une preuve très convaincante en faveur de ce modèle. Avant le découplage entre photons et matière, l'univers est un fluide (un plasma chaud) dans lequel se propagent des ondes de pression dues aux interactions entre la lumière et les particules. Les ondes acoustiques baryoniques résultent de la propagation de ces ondes de pression.
- La mise en évidence de l'accélération de l'expansion par les astrophysiciens Saul Perlmutter et Adam Riess complète ce modèle. Les mesures effectuées par ces deux astrophysiciens sur un certain nombre de supernovae de type IA situées à des distances différentes leur ont en effet permis de démontrer en 1998 que l'accélération de l'expansion avait repris il y a 7 milliards d'années. Cette découverte a remis à l'honneur la notion de constante cosmologique qu'Einstein avait abandonnée après la découverte de la fuite des galaxies par Hubble.
- La coïncidence entre les irrégularités observées sur le fond diffus et la structure filamentaire de la répartition des amas de galaxies n'est pas, à proprement parler une preuve de la validité du modèle. Elle est néanmoins suffisamment frappante pour être mise au crédit de celui-ci.
Le rôle de la température dans l'organisation de la matière
L'histoire de l'Univers lorsqu'il est dominé par le rayonnement est essentiellement une histoire thermique. L'évolution de la température durant cette phase joue un rôle essentiel dans la genèse du monde tel que nous le connaissons aujourd'hui. Aux premiers instants de l'Univers, la physique quantique décrit un monde où tout est possible : des particules se créent et s'annihilent, les interactions normalement confinées au cÅ“ur des atomes peuvent avoir une portée infinie, la différence entre matière et rayonnement est abolie... Le refroidissement de l'Univers qui survient en raison de son expansion va mettre progressivement de l'ordre dans tout cela.
Le premier effet connu et vérifié expérimentalement de la baisse de température est celui auquel les physiciens ont donné le nom de transition de Higgs. Cette transition joue un rôle déterminant dans la différenciation entre les interactions. Lorsque la température est supérieure à la température de transition, le champ de Higgs a une symétrie maximale (sa valeur moyenne est nulle) et il n'interagit pas avec le champ responsable de l'interaction nucléaire faible. Lorsque la température passe en dessous de cette valeur, l'agitation thermique n'est plus suffisante pour empêcher le champ de Higgs de prendre une valeur non nulle qui lui permet de minimiser son énergie potentielle. Dès lors il se met à interagir avec l'interaction nucléaire faible, ce qui confère une masse aux bosons W et Z de cette interaction. De son, côté, l'interaction avec le boson de Higgs donne une masse aux autres particules. La portée de l'interaction faible devient alors très faible et elle se différencie de l'interaction électromagnétique (voir le post sur l'interaction faible). Au passage, les particules de matière se sont aussi différenciées des photons. Elles ne circulent plus à la vitesse de la lumière.
La température joue également un rôle important dans le mécanisme de création-annihilation de particules. Dans l'univers de radiations, la température est directement liée à l'énergie des photons. Si l'énergie transportée par un photon est supérieure à l'énergie de masse d'une paire particule/antiparticule, celle-ci peut surgir naturellement à partir du vide quantique. L'agitation thermique entraîne un brassage continuel de ces particules et antiparticules. Elles s'annihilent au fur et à mesure de leur création. Lorsque la température descend en dessous de la valeur correspondant à l'énergie de masse d'un type de particules, le mécanisme de création des particules de ce type est interrompu. Il s'en suit une période de destruction massive : lorsqu'une de ces particules rencontre une antiparticule du même type, elles s'annihilent en émettant deux photons très énergiques. Fort heureusement pour nous, un mécanisme encore mal compris a introduit une légère dissymétrie entre le nombre de particules et d'antiparticules (une pour un milliard). A l'issue de cette phase de destruction il subsiste donc un reliquat de particules... celles qui constituent le monde dans lequel nous vivons. Andreï Sakharov a exprimé en 1970 les conditions qui sont nécessaires pour permettre ce déséquilibre entre matière et antimatière. Certaines de ces conditions ont été vérifiées expérimentalement.
L'interaction nucléaire forte a elle aussi une portée très limitée. Elle crée autour des particules qui portent une « charge de couleur » (les quarks) un puits de potentiel. Lorsque la température de l'Univers dépasse le seuil d'énergie correspondant à ce puits de potentiel, l'interaction nucléaire forte a peu d'impact sur la trajectoire de ces particules. Elles évoluent à l'intérieur d'un plasma appelé QGP (quark-gluon plasma). Lorsque la température tombe en dessous de ce seuil, l'assemblage des quarks et gluons peut commencer : c'est la baryogénèse. Les quarks et les gluons perdent leur liberté. Ils laissent la place aux protons et aux neutrons. Un peu plus tard, un processus similaire conduira à la formation des premiers noyaux. On parlera alors de nucléosynthèse primordiale. Les phénomènes physiques en jeu lors de la nucléosynthèse primordiale ont été décrits dès 1949 par George Gamow et Ralph Alpher.
Signalons enfin le phénomène de découplage entre le rayonnement et les atomes d'hydrogène. Tant que la température du rayonnement est supérieure à 3000 K, l'énergie des photons ambiants est suffisante pour ioniser les atomes d'hydrogène. Les photons sont alors en interaction continuelle avec la matière. Ils ne peuvent pas se propager librement. Lorsque la température passe en dessous de 3000 K, il y a découplage. Les photons émis à ce moment vont continuer de se propager indéfiniment. Ils forment aujourd'hui le fonds diffus cosmologique (CMB : Cosmic Microwave Background). La carte du fond diffus cosmologique établie par le satellite Planck nous donne de précieuses indications sur les propriétés de la surface de dernière diffusion, c'est-à-dire sur les propriétés de l'Univers au moment du découplage. Le découplage entre matière et rayonnement avait également été prédit par George Gamow et Ralph Alpher. La découverte fortuite du fond diffus cosmologique par Arno Penzias et Robert Wilson en 1964 a joué un rôle déterminant dans l'essor de la cosmologie en tant que sujet scientifique.
Comme on le voit, c'est la baisse continue de la température qui a permis à la matière de s'organiser progressivement. Les particules ont commencé par acquérir de la masse, les quarks ont été piégés dans des hadrons, des paires particules-antiparticules ont cessé de se créer, les premiers noyaux se sont formés, puis les premiers atomes...
Chronologie du modèle standard de la cosmologie
Le scenario du modèle standard de la cosmologie est ambitieux : il propose une histoire de l'Univers à partir du Big bang jusqu'à nos jours en intégrant la totalité des connaissances et des hypothèses les plus sérieuses de la physique des particules, de la relativité générale et de l'astrophysique.
L'histoire commence au sortir de l'ère de Planck. L'ère de Planck marque la limite de nos connaissances actuelles. C'est une terra incognita : une zone dans laquelle la relativité générale et la physique ne sont plus compatibles. Nos outils théoriques ne fonctionnent plus. Une nouvelle physique est à concevoir : une théorie quantique de la gravitation.
Une fois franchi le mur de Planck, la gravitation et les autres interactions sont découplées. La théorie de la relativité générale s'applique à la dynamique de l'Univers, la physique quantique aux interactions entre ses constituants. A cet instant de l'histoire de l'Univers, la densité d'énergie est phénoménale et la température avoisine les 1032 K. L'horloge cosmique marque 10-43s.
Le premier épisode de cette épopée est celui de l'inflation cosmique. Selon Andreï Linde, elle se produit tout de suite après la sortie de l'ère de Planck. Elle est déclenchée par l'existence de fluctuations quantiques. Selon Alan Guth cet épisode a lieu un peu plus tard (10-34s après le Big-bang) et il est lié à la présence d'un champ scalaire. Dans les deux cas, cette période d'inflation se traduit par une expansion exponentielle des dimensions de l'Univers. Le modèle de l'inflation est celui de De Sitter. Lorsque cette inflation prend fin, elle libère une énergie considérable qui se matérialise sous la forme de particules élémentaires de tous types. L'apparition des particules élémentaires n'est pas le seul bienfait de l'inflation : elle a également aplati l'Univers qui est devenu euclidien.
L'énergie des particules au sein de l'Univers naissant est colossale : elles sont relativistes. L'Univers a donc toutes les caractéristiques d'un univers de radiations. Il continue son expansion mais de façon beaucoup plus modérée que lors de la période d'inflation. Selon certains physiciens, les trois interactions décrites par la physique quantique (l'interaction forte, l'interaction faible et l'interaction électromagnétique) ne forment alors qu'une seule et même interaction. C'est la théorie de la Grande Unification (GUT en anglais, Grand Unified Theory). Selon cette théorie, il se produit une brisure de symétrie entre l'interaction forte et l'interaction électrofaible lorsque la température descend en dessous de 1028 K (1014 GeV). Ces deux interactions deviennent indépendantes l'une de l'autre. L'horloge de l'Univers marque 10-35 s.
Ni l'inflation ni la grande unification n'ont reçu de vérification expérimentale ou observationnelle. Les deux premiers actes de ce scenario sont donc basés sur de pures hypothèses. Tout ce qui suit, par contre, est beaucoup mieux documenté. Même s'il subsiste des inconnues (matière noire, dissymétrie entre matière et antimatière) les différentes étapes du scenario s'appuient sur des théories éprouvées et vérifiées expérimentalement. Pour chacune des étapes décrites par ce scenario nous donnerons trois chiffres : le temps écoulé depuis le Big-bang , la température moyenne, l'énergie moyenne d'une particule.
10-12 s, 1015 K, 100 GeV : Une nouvelle brisure de symétrie se produit, celle prédite par Brout, Englert et Higgs. Elle conduit à rendre indépendantes l'interaction électromagnétique et l'interaction faible. C'est le mécanisme BEH qui confère leur masse aux particules élémentaires. L'univers n'est plus constitué uniquement de rayonnement, de particules de Higgs et de leptons. Débute alors ce que l'on appelle l'ère des quarks. L'univers est rempli d'un plasma de quarks et de gluons (QGP : quark-gluon plasma) en interaction continuelle avec le rayonnement et les leptons. La matière reste néanmoins relativiste. Le modèle le mieux adapté est toujours celui d'un univers de radiations
10-6 s, 1013 K, 1 GeV : La température est descendue suffisamment pour que l'interaction forte puisse piéger les quarks au sein de structures plus complexes. Des hadrons (assemblage de quarks) et des anti-hadrons se forment et s'annihilent en permanence.
Lorsque la température descend sous un certain seuil, la création de paires hadron/anti-hadron ne compense plus leur annihilation. Il s'en suit une extinction massive des hadrons... Fort heureusement, un déséquilibre infime entre matière et antimatière fait qu'il subsiste quelques hadrons (et plus particulièrement des protons et des neutrons). Ce phénomène porte le nom de baryogénèse. Le nombre de baryons dans l'Univers va désormais rester constant.
1 s, 1010 K, 1 MeV : Découplage entre baryons, électrons et neutrinos. Ils étaient auparavant couplés. Protons et neutrons étaient alors en équilibre :

A partir du moment où ce découplage se produit, la réaction se fait en sens unique et le nombre de neutrons va diminuer inexorablement. Autre conséquence : il existe dans l'Univers un « fond diffus de neutrinos » au même titre qu'il existe un fond diffus cosmologique de photons.
10 s : après la disparition de l'immense majorité des hadrons, les paires lepton/anti-leptons dominent la masse de l'Univers. 10s après le Big-bang il se produit le même phénomène d'annihilation massive que pour les hadrons. Seuls quelques leptons survivent.
De 3 mn à 20 mn (109 K, 0,1 MeV) : C'est la phase de nucléosynthèse primordiale. Protons et neutrons s'associent pour former des noyaux légers (deutérium, tritium, hélium 3, hélium 4 et lithium). A l'issue de cette phase de nucléosynthèse, les composants les plus courants sont l'hydrogène (75% - ils étaient présents dès l'étape de baryogénèse sous forme de protons) et l'hélium (25%). La mesure confirme de manière étonnamment précise les prédictions théoriques. C'est le cas en particulier pour le deutérium. Même s'ils sont nettement moins nombreux que les atomes d'hydrogène (un pour 100 000), la présence dans l'univers de la quantité effectivement mesurée de noyaux de deutérium ne pourrait pas s'expliquer sans la nucléosynthèse primordiale. Conséquence de la capture des neutrons par les noyaux : leur nombre cesse de décroître.
70000 ans, 10000 K : A cette époque, il y a dans l'univers à peu près autant d'énergie sous forme de matière que de rayonnement. On passe progressivement d'un univers de radiations à un univers de poussières. La matière non relativiste devient dominante et, en particulier la matière noire qui commence à s'effondrer sur elle-même. L'effondrement de la matière noire prépare celui de la matière baryonique.
380000 ans, 3000 K, 0,3 eV : L'énergie moyenne des photons n'est plus suffisante pour empêcher la formation d'atomes d'hydrogène. Il y a découplage entre le rayonnement et la matière baryonique. Ce découplage est à l'origine du fonds diffus cosmologique prédit par George Gamow et Ralph Alpher et découvert par Penzias et Wilson en 1964. La période qui suit est appelée âge sombre : aucune étoile ne brille dans le ciel. En coulisse, l'effondrement gravitationnel de la matière baryonique commence. Il est grandement facilité par l'existence préalable de concentrations de matière noire.
500 millions d'années : La matière s'est condensée au sein de gigantesques nuages qui forment des filaments dans l'Univers. Les premiers quasars apparaissent au sein des protogalaxies. Les premières galaxies se sont formées, au sein desquelles brillent des étoiles supermassives (100 masses solaires). Elles sont constituées uniquement de composants légers (H, He) et explosent rapidement en supernovae, ensemençant l'espace avec les premiers éléments lourds. Leur rayonnement intense re-ionise le gaz interstellaire mais il est suffisamment dilué pour ne pas gêner la propagation des photons. Au moins trois générations d'étoiles vont se sont succéder. En disparaissant, les plus massives d'entre elles dispersent dans l'espace de nouveaux éléments lourds. Ces éléments lourds sont indispensables à la formation de planètes telluriques (comme la Terre) dans le disque d'accrétion autour des étoiles naissantes.
7 milliards d'années : Début de l'accélération de l'expansion. La dilution de la matière permet à la constante cosmologique de prendre la main sur l'évolution dynamique de l'Univers.
9 milliards d'années : Naissance du Soleil et de la Terre.
13,8 milliards d'années, 2,7 K, 10-4 eV : aujourd'hui !
Quelques réflexions sur le modèle standard de la cosmologie
En cette période où le relativisme se porte bien, où il est de bon ton de montrer qu'on « n'est pas dupe » et qu'on doute de tout, on voit fleurir sur Internet les billets glosant sur les faiblesses du modèle standard. C'est, d'une certaine manière, un contresens.
Parce que justement le modèle standard est un modèle, et pas une théorie. C'est-à-dire un cadre dans lequel s'emboîtent des théories avérées, lorsqu'on dispose de suffisamment d'éléments observationnels et expérimentaux pour les conforter, et des hypothèses lorsque ces éléments manquent.
Il n'y a pas de théorie du tout (TOE : theory of everything). Une théorie est par nature basée sur des simplifications et elle a un certain domaine de validité. Un modèle a l'ambition de proposer une vision plus large en établissant des ponts entre les théories, en tâchant de faire coïncider les simplifications des unes avec les paramètres qui servent d'hypothèse aux autres. Et lorsqu'il y a des manques, on les comble avec des hypothèses. Celle de l'inflation cosmique par exemple, ou celle de la matière noire et de l'énergie noire, ou encore celle du déséquilibre entre matière et antimatière.
Peut-on parler de faiblesses du modèle ? Oui en ce sens qu'il n'est pas basé sur un ensemble de théories ayant réponse à tout. Non dans la mesure où les cosmologistes n'attendent qu'une chose : c'est de disposer d'éléments suffisants pour remplacer les hypothèses spéculatives par des théories avérées, ou d'autres hypothèses tenant compte d'un meilleur état des connaissances.
Les chercheurs travaillent d'arrache-pied pour trouver ces nouvelles théories, formuler ces nouvelles hypothèses. Il y a souvent un prix Nobel à la clef ! La difficulté est de trouver une théorie qui soit compatible de toutes les autres. Toutes celles pour lesquelles on a accumulé une masse de preuves expérimentales et observationnelles. A quoi sert une théorie qu'on ne peut pas raccorder aux autres ? C'est un peu comme une monnaie non convertible, vous pouvez l'utiliser chez vous mais elle n'a pas cours à l'extérieur. Une telle théorie aurait une portée très limitée : elle pourrait expliquer quelques phénomènes mais n'apporterait aucune avancée sur la vision d'ensemble. Voire même elle en réduirait la portée. Car le juge de paix c'est le pouvoir explicatif. Prenez par exemple le cas de la théorie Mond : elle fonctionne bien à l'échelle des galaxies mais elle n'est pas relativiste ! A ce jour, son pouvoir explicatif est bien plus limité que celui de la matière noire. Pour qu'elle trouve sa place dans le modèle standard, ou qu'elle puisse revendiquer le statut de modèle alternatif, il faudrait qu'on en trouve une formulation relativiste. Or, si la matière noire échappe à toute détection, la théorie Mond semble quant à elle rétive à toute tentative de la combiner avec la relativité.
Si le modèle standard était aussi peu robuste que certains le disent, cela fait longtemps qu'on l'aurait transformé pour en donner une version plus satisfaisante. Le modèle standard sert à ça : disposer d'un cadre général qui permet d'avoir la meilleure vision d'ensemble.
Je suis confiant dans ce modèle, j'en connais les limites et je suis impatient qu'on progresse dans la résolution des énigmes qui subsistent pour remplace les hypothèses spéculatives par des théories robustes et éprouvées.

