Un peu de physique...

Comment mesure-t-on les distances astronomiques ?

La mesure des distances dans l'Univers est un sujet qui passionne les astronomes depuis l'antiquité. Les ambitions de nos illustres anciens étaient limitées... et les moyens dont ils disposaient encore plus. Pourtant, trois siècles avant notre ère, les astronomes grecs étaient déjà capables d'évaluer la distance Terre-Lune et le rayon de la Terre !

L'astrométrie dans la Grèce antique

Aristarque de Samos, qui vécut entre 310 et 230 avant notre ère, calcula avec une assez bonne approximation le rapport entre le rayon de la Terre et celui de la Lune. Il s'appuyait pour cela sur la durée d'une éclipse de Lune et d'astucieuses considérations géométriques. Il put en déduire que la distance entre la Terre et la Lune valait 64 fois le rayon terrestre. Le rapport réel est proche de 60 : pas mal pour une mesure faite il y a 2200 ans ! (Son estimation du rapport entre la distance Terre-Soleil et la distance Terre-Lune était par contre largement sous-évaluée.)

Eratosthène de Cyrène, qui vécut entre 276 et 194 avant notre ère a, quant à lui, évalué le rayon de la Terre en comparant l'angle formé à midi (heure solaire) par l'ombre d'un bâton planté à Assouan à celui d'un bâton planté à Alexandrie. La valeur qu'il a trouvée s'écarte de la mesure actuelle de moins de 5% !

La révolution copernicienne

L'antiquité grecque nous a légué une vision du mode imparfaite mais étonnamment précise pour l'époque. Il fallut ensuite attendre plusieurs siècles pour que des progrès significatifs soient faits. On les doit au passage du modèle géocentrique au modèle héliocentrique (Nicolas Copernic, vers 1540). Le modèle copernicien va en effet permettre de calculer le rayon de l'orbite des planètes du système solaire en prenant pour référence la distance Terre-Soleil. Pour les planètes intérieures (Mercure, Vénus), on s'appuie sur leur élongation : la distance angulaire entre celles-ci et le Soleil. Soit alpha l'élongation maximale d'une planète, R la distance Terre-Soleil, le rayon moyen de l'orbite de cette planète est égal à :

Pour les planètes extérieures, c'est un peu plus compliqué. Il faut en effet relever l'écart de temps entre l'opposition (alignement Soleil-Terre-Planète) et la quadrature (angle Soleil-Terre-Planète égal à 90 degrés). Connaissant la période de révolution de la Terre et de la planète considérée, on peut en déduire les angles parcourus respectivement par la Terre et ladite planète. Le rapport entre le rayon de l'orbite de la planète et la distance Terre-Soleil s'en déduit facilement.

Kepler et Newton

Une nouvelle étape est franchie avec Johannes Kepler et Isaac Newton. Les lois de Kepler permettent de relier le demi grand-axe de l'orbite d'une planète (ou d'un satellite) à sa période de révolution. Reste à déterminer précisément le coefficient de proportionnalité. La connaissance la plus précise possible de la distance Terre-Lune ou de la distance Terre-Soleil devient donc un enjeu de première importance. En 1672, Jean-Félix Picard, Jean-Dominique Cassini et Jean Richer mesurent la distance entre la Terre et la planète Mars par la méthode de la parallaxe lors d'une opposition de cette planète. Picard et Richer sont à Cayenne et Cassini à Paris. Connaissant la distance entre Paris et Cayenne, il leur est facile de calculer la distance Terre-Mars. A partir de là, la troisième loi de Kepler leur permet de remonter à la distance Terre-Soleil. En 1751, Jérôme Le François de Lalande et Nicolas Louis de La Caille (abbé de son état) appliquent la méthode de la parallaxe à la mesure de la distance Terre-Lune. Lalande était à Berlin et La Caille au Cap. Le résultat de ces mesures permit d'améliorer sensiblement la précision de la détermination des distances.

Nota : la mesure de la distance Terre-Lune est aujourd'hui connue au centimètre près grâce aux déflecteurs déposés sur le sol lunaire par les missions Apollo (mesures laser). Pour les planètes les plus proches, on utilise aujourd'hui des mesures radar.

La méthode de la parallaxe

Au XVIIIème siècle, La méthode de la parallaxe va devenir la méthode reine pour effectuer des mesures de distance en astronomie. D'abord depuis deux points éloignés (Paris - Le Cap ou Paris - Cayenne par exemple) puis en effectuant des mesures à six mois d'intervalle pour tirer parti du diamètre de l'orbite terrestre. En comparant la position angulaire d'une étoile proche par rapport au fond des étoiles lointaines à 6 mois d'intervalle, il est facile de déterminer sa distance :

La méthode de la parallaxe est à la base d'une unité de distance très utilisée en astronomie : le parsec. Le parsec est la distance d'une étoile qui est mesurée avec une parallaxe d'une seconde d'arc. Un parsec vaut 3,26 années-lumière, soit 3,08 1016 m.

Pour être réalisée de manière correcte, cette méthode demande un très grand soin. Depuis la Terre, sa précision est limitée par les turbulences atmosphériques. Jusque dans les années 1980, seule la distance de quelques centaines d'étoiles avait pu être mesurée avec une précision de quelques pourcents. Le lancement du satellite Hipparcos en 1989 a changé la donne. Grâce à Hipparcos, la distance 120000 étoiles a pu être mesurée avec une précision meilleure qu'une milliseconde d'arc. La distance des étoiles répertoriées par Hipparcos s'étend jusqu'à quelques kiloparsecs (kpc).

Gaïa, lancé en 2013, a pour objectif de faire encore mieux. Gaïa a pour mission de mesurer la distance d'un milliard d'objets célestes avec une précision de 7 microsecondes d'arc pour des objets ayant une magnitude de 10 et de 300 pour des objets ayant une magnitude de 20. La zone couverte est une sphère d'un mégaparsec. En prime, Gaïa mesurera la vitesse radiale de ces objets.

Début du XXème siècle : le coup d'accélérateur

Retour en arrière. Au début du XXème siècle la méthode de la parallaxe n'avait permis de déterminer la distance que d'une centaine d'étoiles proches du système solaire. Les astronomes étaient donc à la recherche d'une méthode permettant d'obtenir un résultat beaucoup plus rapidement et, si possible, pour des étoiles plus lointaines. La solution va leur être apportée sur un plateau au début des années 1910. Deux nouvelles méthodes vont voir le jour.

On doit la première aux travaux d'Ejnar Hertzprung puis à ceux d'Henry Russell. Les deux hommes placèrent sur un diagramme la température effective (axe des x) et la magnitude absolue (axe des y) de quelques centaines d'étoiles. Ils mirent en évidence le fait que la plupart des points se trouvaient sur une courbe. Par la suite, on a donné à cette courbe le nom de diagramme d'Hertzprung-Russell, ou plus exactement de séquence principale du diagramme H-R. Il était dès lors possible, en mesurant la magnitude relative d'une étoile ainsi que sa température effective, d'en déduire sa distance. Il suffisait en effet de comparer sa magnitude relative à la magnitude absolue prédite par le diagramme H-R. Cette estimation reste cependant très approximative. Il ne faut pas en attendre une précision meilleure que 20% dans le meilleur des cas. Elle permet néanmoins d'évaluer la distance d'étoiles impossibles à déterminer par la méthode de la parallaxe... et elle est beaucoup plus facile à mettre en oeuvre !

La seconde va véritablement révolutionner l'astrométrie. En 1912, Henrietta Leavitt, une américaine de 44 ans qui avait été embauchée par Edward Pickering comme petite main pour faire des calculs à l'Observatoire de l'Université de Harvard, découvre qu'il y a une relation directe entre la période de variation des étoiles variables situées dans les nuages de Magellan et leur luminosité. Une fois calibrée par la mesure de la parallaxe de ces étoiles, cette relation entre période et luminosité permet de déterminer la distance de n'importe quelle variable de ce type en mesurant sa période et sa magnitude relative.

On a donné aux variables de ce type le nom de Céphéïdes : l'étoile delta de la constellation de Céphée en est l'exemple le plus emblématique. Les Céphéides vont jouer un rôle déterminant en astronomie. C'est grâce à elles que sera tranchée la polémique entre ceux qui pensaient qu'il n'y avait rien au-delà de la Voie Lactée et ceux qui prétendaient qu'il existait d'autres galaxies très éloignées de la nôtre. La mesure par Edwin Hubble en 1923 de la distance des Céphéides appartenant à la galaxie d'Andromède ne laissera aucun doute possible !

Le décalage vers le rouge

Et bien justement, parlons-en des galaxies. Des astronomes comme William Campbell, Vesto Slipher et James Keeler s'y sont intéressés dès le début du XXème siècle, à une époque où leur nature faisait encore débat (on les qualifiait alors de nébuleuses). En 1912 Vesto Slipher est le premier à mettre en évidence le décalage vers le rouge de leur spectre de rayonnement (redshift). Campbell, Slipher et Keeler ne tardent pas à faire le lien entre ce décalage et la vitesse d'éloignement très rapide de ces « nébuleuses », apportant ainsi de l'eau au moulin de ceux qui les situaient en dehors de la voie lactée. Comme on l'a dit, Edwin Hubble trancha le débat en 1923. Hubble s'était fait le spécialiste de la mesure de distance des Céphéïdes grâce aux performances exceptionnelles du télescope de 250 cm du Mont Wilson. Et c'est le même Hubble qui, en 1929, mit en évidence une corrélation entre la distance des galaxies et leur vitesse d'éloignement. Il venait de découvrir que l'Univers était en expansion !

La découverte de Hubble fit grand bruit. Quinze ans plus tôt, elle aurait même été totalement inconcevable pour la communauté scientifique. Mais, en 1915, Albert Einstein avait présenté sa théorie de la relativité générale à l'Académie de Prusse et, dès 1925, Alexander Friedmann puis Georges Lemaître avaient démontré que l'Univers ne pouvait pas être stationnaire comme le supposait la plupart des astronomes à l'époque. La découverte d'Edwin Hubble donnait raison à Lemaître (Friedmann était décédé entre temps) et Einstein lui-même reconnut publiquement qu'il s'était trompé !

Quel est le rapport entre l'expansion de l'Univers et le décalage vers le rouge ? L'expansion allonge la longueur d'onde du rayonnement. L'effet est similaire à celui de l'effet Doppler. De ce fait, plus une galaxie est éloignée, plus la lumière qu'elle a émise met de temps à parvenir jusqu'à nous, et plus sa longueur d'onde est étirée. Une longueur d'onde plus grande signifie une fréquence plus basse. Dans le domaine du rayonnement visible, cela se traduit par un rougissement de la lumière, d'où le nom donné à cet effet. (Il ne faut bien sûr pas prendre cette dénomination au pied de la lettre. L'expression décalage vers le rouge signifie allongement de la longueur d'onde et pas nécessairement rougissement du rayonnement.)

La loi de Hubble établit une nouvelle échelle des distances. Désormais, pour caractériser la distance d'une galaxie, on utilise un terme qui quantifie le décalage de son rayonnement :

Le rapport entre la longueur d'onde observée et la longueur d'onde émise est égal au rapport entre le facteur d'échelle de l'Univers au moment de l'émission et le facteur d'échelle au moment de la réception :

Ce décalage est mesuré par spectroscopie en se basant sur plusieurs centaines de raies caractéristiques du rayonnement des étoiles et des nuages interstellaires. Et plus le coefficient z est grand, plus on remonte dans le temps, donc plus la galaxie considérée est éloignée.

Constante de Hubble

Une nouvelle échelle des distances, d'accord... mais comment la raccorder aux unités de mesures utilisées habituellement : mégaparsec, année-lumière ou unité astronomique ? Pour calibrer les mesures de décalage, il faut connaître la constante de Hubble, c'est-à-dire la constante de proportionnalité entre la vitesse de récession des galaxies et leur éloignement. Et il faut également savoir comment cette constante a évolué dans le temps. Car rien ne permet d'affirmer qu'elle est restée identique depuis les premiers instants après le Big-bang.

Nous voilà revenus toujours au même problème : comment estimer les distances dans l'Univers. Nous en étions restés aux Céphéides... mais cette méthode exige que l'on puisse « isoler » le rayonnement d'une étoile pour pouvoir mesurer sa période et sa magnitude relative. Elle est certes plus puissante que la méthode de la parallaxe, mais sa portée reste limitée aux galaxies les plus proches. Pour caractériser l'évolution de la constante de Hubble pour différentes distances d'éloignement, il faudrait être capable de mesurer la distance de galaxies lointaines voire très lointaines.

Nota : la constante de Hubble est aujourd'hui évaluée à 70 km/s/mpc.

Supernovae de type IA

La solution à ce casse-tête va être fournie par les étoiles elles-mêmes. Ou plus exactement, par un événement qui marque la fin de vie d'une étoile : une supernova. Les supernovae sont connues des astronomes chinois depuis l'observation de l'une d'entre elles en 1054. En Europe, il faut attendre l'observation d'une supernova par Tycho Brahé en 1572 pour qu'on commence à s'y intéresser. Mais ces « étoiles invitées » comme on les appelait à l'époque, restaient des objets mystérieux. Ce n'est que dans la deuxième moitié du XXème siècle qu'on fera le lien entre supernova et cycle de vie d'une étoile.

Il existe plusieurs types de supernovae. On les classe en deux grandes catégories : les supernovae thermonucléaires et les supernovae à effondrement de coeur. Celles qui vont nous intéresser sont des supernovae thermonucléaires, et plus particulièrement les supernovae thermonucléaires auxquelles on a attribué le « type IA ».

Dans une supernova à effondrement de coeur (type II), c'est le coeur d'une étoile massive qui implose. Ce coeur est majoritairement composé de fer et de nickel. Or, le fer et le nickel ne peuvent pas fusionner sans un apport d'énergie extérieure. Le coeur ne peut donc être soutenu que par la pression de dégénérescence des électrons. Il n'y a pas de plan B. Si cette pression ne suffit pas, la neutronisation est la seule issue possible pour le coeur d'une étoile à court de carburant nucléaire pour entretenir la fusion.

Dans une supernova de type IA le mécanisme est complètement différent. Tout part d'une naine blanche au sein d'un système binaire. Une naine blanche qui prend du poids en raison d'un transfert de matière depuis son étoile-compagnon. Une naine blanche est principalement constituée de carbone et d'oxygène, des atomes qui peuvent alimenter des réactions de fusion si les conditions adéquates sont réunies. Seule la pression de dégénérescence des électrons les en empêche. Si cette pression devient insuffisante, c'est-à-dire lorsque la masse de la naine blanche dépasse la masse de Chandrasekhar, ces réactions se déclenchent automatiquement et il en résulte une monstrueuse explosion thermonucléaire qui disloque entièrement l'étoile.

Ce qu'il y a d'intéressant pour les astronomes dans ce type d'événement, c'est qu'il se reproduit toujours à l'identique. Les conditions initiales sont toujours les mêmes : une naine blanche dont la masse est égale à la masse de Chandrasekhar. La puissance de l'explosion qui en découle est calibrée. Toujours la même amplitude, toujours le même spectre de rayonnement, toujours la même durée et le même profil dans le temps. Cela en fait de parfaites chandelles standards à partir desquelles on peut estimer la distance à laquelle cette explosion a eu lieu. L'outil parfait pour établir une correspondance entre le redshift de la galaxie-hôte et sa distance ! Parce que l'explosion d'une supernova de type IA ne passe pas inaperçue : pendant des semaines, sa luminosité dépasse de loin celle de la galaxie dans laquelle elle se produit. Ce genre d'événement n'es pas fréquent : une par siècle et par galaxie... mais il y a des milliards de galaxies dans l'Univers ! Autant dire que les astronomes ont l'embarras du choix.

La traque des supernovae de type IA est aujourd'hui automatisée. En accumulant les mesures sur de très nombreuses galaxies avec différents redshifts et en corrélant la mesure de leur distance avec celle du redshift de leur galaxie-hôte, on peut déterminer la constante de Hubble et retracer son évolution dans le temps. C'est d'ailleurs ce qui a permis à Saul Perlmutter et Adam Riess de montrer que l'expansion de l'Univers avait d'abord connu une phase de ralentissement pour se mettre ensuite à accélérer, mettant ainsi le doigt sur l'une des plus grandes énigmes de la cosmologie moderne !

Parallaxe, Céphéïdes, supernovae de type IA, redshift cosmologique : les astronomes disposent aujourd'hui d'une palette d'outils qui leur permettent d'arpenter l'Univers. L'accumulation de mesures réalisées grâce aux différents satellites et exploitées de manière automatisée permet aujourd'hui d'atteindre un niveau de précision inégalé. Et ce n'est qu'un début : la moisson de données récoltées par Gaia devrait permettre d'aller encore plus loin !

Petite récréation mathématique

Comment passer du facteur d'échelle au décalage vers le rouge ? Rien de plus simple. Pour ce faire, il faut se placer dans le modèle d'Univers proposé par Alexander Friedmann et Georges Lemaître (voir le post sur ce sujet) et qui est devenu le modèle sur lequel se base la cosmologie. Dans la métrique FLRW, l'équation géodésique d'un photon s'écrit :

Considérons un photon émis à l'instant t0 et perçu à l'instant t1. On peut écrire :

Pour un autre photon émis après une période on peut écrire de la même façon :

Le second membre de ces deux équations est identique. On peut en déduire l'égalité suivante :

On peut décomposer cette équation comme suit :

En réarrangeant les deux derniers termes du membre de droite de cette double équation il vient :

La variation du facteur d'échelle a est infinitésimale sur une période. On peut donc écrire :

CQFD

 

Index