Un peu de physique...

Spectre et corps noir

Les photons sont des animaux grégaires. Ils se déplacent rarement seuls. Ils vont tous à la même vitesse mais, comme nous l’avons vu dans le post précédent, ils sont caractérisés chacun par une fréquence, symbolisée par la lettre nu, telle que :

E étant l’énergie du photon et h la constante de Planck. Cette dispersion du rayonnement entre différentes fréquences a été étudiée dès le XVIIème siècle par Newton à l’aide d’un prisme.

Le spectre d’un rayonnement est une courbe qui caractérise sa répartition en fréquence. On sait mesurer le spectre depuis la fin du XVIIème siècle grâce au spectromètre à fil inventé par David Rittenhouse et perfectionné plus tard par Joseph von Fraunhofer. La mesure du spectre émis par un haut-fourneau était un enjeu fort en ces temps de révolution industrielle. On avait en effet constaté qu’il y avait une corrélation entre fréquence d’émission et température au cœur des hauts-fourneaux. Mesurer le spectre c’était être capable de piloter la température d’un haut-fourneau.

La catastrophe ultra-violette

Les scientifiques les plus réputés se sont mobilisés sur le sujet : Josef Stefan, Wilhelm Wien, Gustav Kirchhoff, John William Rayleigh, Ludwig Boltzmann… Le modèle qu’ils ont établi pour mener leur analyse est celui du corps noir. Un corps noir est un corps qui absorbe sans les réfléchir tous les rayons incidents et dont le rayonnement propre ne dépend que de la température. Rayleigh et Jeans ont par exemple proposé une formule exprimant la luminance spectrale en fonction de la température qui semblait bien adaptée pour les hautes fréquences (formule de Rayleigh-Jeans). Wien proposa une autre formule mieux adaptée aux basses fréquences. Dans tous les cas, ces formules prédisaient que la puissance rayonnée par un corps noir devait être infinie. Impossible en physique ! Ce problème était considéré comme l’une des grandes énigmes non résolues de la physique à la fin du XIXème siècle. On lui a donné le nom de catastrophe ultra-violette.

Max Planck décida de se consacrer à la résolution de cette énigme pendant l’été 1900. Il essaya sans succès toutes les méthodes connues de la physique de l’époque. Il se résolut en désespoir de cause à tester les méthodes de la physique statistique introduite par Ludwig Boltzmann, méthodes qu’il n’aimait guère. Il modélisa le corps noir sous la forme d’une multitude de petits oscillateurs individuels. Cette modélisation se révéla très efficace. Restait un obstacle, celui de la divergence à l’infini. Alors, dans un « acte de désespoir » comme il le dit lui-même par la suite, il postula que chaque oscillateur individuel ne pouvait émettre que des paquets d’onde d’énergie E = hf. Ainsi, dès lors que l’énergie totale émise est inférieure à hf, les oscillateurs correspondants ne peuvent pas émettre de rayonnement. La puissance totale du rayonnement ne peut donc pas être infinie.

Max Planck venait de découvrir l’une des lois physiques les plus importantes de la physique moderne. Il n’en eut pas conscience, persuadé qu’il était que ce n’était qu’un artifice mathématique.

Loi de Planck

La luminance énergétique spectrale d'un corps noir par unité de fréquence est donnée par la formule suivante : 

T étant la température en Kelvin, k la constante de Boltzmann, c la vitesse de la lumière et nu la fréquence. La loi de Stefan-Boltzmann s’en déduit, elle quantifie le flux d’énergie rayonnée par unité de surface par un corps noir (excitance) :

  

Loi de Planck, courbe de luminance. Image libre de droit (Wikipédia)

La loi de déplacement de Wien donne quant à elle la longueur d’onde correspondant au pic d’émission d’un corps noir :

dans des unités appropriées.

La loi de Planck et la loi de Stefan ont de multiples applications en physique. En astrophysique, elles permettent de modéliser le transport de l’énergie au sein de la zone radiative d’une étoile ainsi que les caractéristiques de rayonnement de la photosphère (l’enveloppe d’une l’étoile). Comme nous le verrons plus tard, le transfert de l’énergie à l’intérieur d’une étoile peut se faire de deux façons : par radiation ou par convection. Dans le mode convectif, le transport se fait par déplacement de matière (d’immenses bulles de gaz chaud remontent à la surface par l’effet de la poussé d’Archimède. C’est le mode qui prévaut dans les couches périphériques d’une étoile comme le Soleil. Au sein des couches internes, c’est le mode radiatif qui prédomine. La densité dans les couches internes est telle que le gaz qui les compose est opaque. Chaque volume élémentaire de gaz absorbe l’intégralité du rayonnement qu’il reçoit. L’énergie absorbée entretient la pression et la température. A l’équilibre, l’énergie absorbée est re-rayonnée et se propage ainsi vers les couches adjacentes. De la sorte, on peut assimiler chaque élément de volume à un corps noir.

Raies d’absorption

Nous avons dit que le modèle du corps noir pouvait aussi s’appliquer à la photosphère. Il y a en effet une forte similitude entre le spectre d’un corps noir et l’allure générale du spectre rayonné par une étoile. Gustav Kirchhoff en fit la constatation en 1860 en analysant le spectre du Soleil. Il constata cependant que ce spectre comportait des « raies manquantes ». Avec l’aide du chimiste Robert Bunsen il put déterminer que ces raies manquantes correspondait aux raies d’absorption de l’hydrogène.

Nous avons vu dans les posts consacrés au nuage électronique d’un atome que les électrons réagissaient avec les photons à certaines longueurs d’onde (notion de saut quantique). De ce fait, les photons émis au sein de la photosphère et dont la fréquence correspond aux fréquences d’excitation de l’hydrogène (raies de Balmer) sont très rapidement réabsorbés par le gaz environnant (qui est composé à 70% d’hydrogène) avant d’être diffusés dans une direction quelconque. Ces fréquences sont donc fortement atténuées dans le spectre du rayonnement émis par la photosphère. Cette constatation permit à Kirchhoff et Bunsen de mettre au point une méthode d’analyse spectroscopique de la composition des étoiles qui permit à l’astronomie et à l’astrophysique de faire un grand pas en avant. En particulier, Kirchhoff et Bunsen découvrirent dans la composition du Soleil un composant jusqu’alors inconnu sur Terre et qu’ils baptisèrent hélium. (Pour la petite histoire, Auguste Comte avait décrété peu de temps auparavant que la composition des étoiles était un sujet non-scientifique car hors de portée de toute mesure.)

Des photons qui se déplacent en bande (de fréquence)

L’analyse spectrale a beaucoup progressé depuis ses débuts au XIXème siècle. On a progressivement pris conscience de l’extraordinaire diversité du rayonnement électromagnétique. Les longueurs d’onde mesurées vont du picomètre au kilomètre ! Il n’existe bien sûr pas de spectromètre universel, ni de télescope couvrant toute la largeur du spectre. On a donc pris l’habitude de découper le spectre en bandes de fréquence en fonction des instruments utilisés pour les capter et les analyser. Aujourd’hui, le découpage utilisé est le suivant :

  • rayons gamma : longueur d’onde < 10 picomètres
  • rayons X : longueur d’onde < 10 nanomètres
  • rayons UV : longueur d’onde < 315 nanomètres
  • domaine visible : longueur d’onde comprise entre 315 nm et 780 nm
  • rayons infrarouges :  longueur d’onde comprise entre 780 nm et 1 mm
  • rayons millimétriques (subdivision des rayons IR) : de 0,1 mm à 1 mm
  • rayonnement « micro-onde » : longueur d’onde comprise entre 1 mm et 30 cm
  • rayonnement radio : au-delà

Lunettes, télescopes et satellites

Longtemps le seul moyen d’observation de la lumière a été l’œil. Ce n’est qu’au début du XVIIème siècle qu’est apparue la lunette. D’abord utilisée à des fins militaires, Galilée eut l’idée de la diriger vers le ciel, et en particulier vers Jupiter (Galilée découvrit à cette occasion les lunes de Jupiter). En 1663, l’écossais James Gregory proposa de remplacer les lentilles par un miroir, beaucoup plus facile à réaliser. Il venait d’inventer le télescope. L’un des premiers télescopes fut construit par Newton, encore lui, en 1671.

Le spectroscope, on l’a dit, a été inventé par David Rittenhouse à la fin du XVIIème siècle et perfectionné par Joseph von Fraunhofer au début du XIXème. On avait parcouru pas mal de chemin depuis la lunette de Galilée… mais on restait cantonné au domaine visible. Et pour cause, Maxwell n’avait pas encore établi que la lumière faisait partie de la grande famille du rayonnement électromagnétique et Rudolf Hertz n’avait pas encore confirmé cette hypothèse en découvrant les ondes hertziennes. Quant aux rayons X, ils ne seront découverts qu’en 1895 par Wilhelm Röntgen.

Il ne faut pas croire que les astronomes aient tout de suite investi les champs ouverts par la géniale intuition de Maxwell. La course au diamètre des télescopes optiques à d’abord prévalu. Dans le même temps, les très longues séances de pose que permettaient les techniques photographiques naissantes leur permirent de faire des mesures beaucoup plus précises sur des astres beaucoup plus éloignés. C’est grâce à la construction du télescope Hooker de 2,5 m de diamètre du mont Wilson qu’Edwin Hubble a pu découvrir la fuite des galaxies en 1929.

L’exploration des autres bandes de fréquence a commencé dans l’immédiat après-guerre qui a vu l’essor de la radio astronomie grâce aux nombreux radars devenus sans utilité. Mais c’est surtout la conquête spatiale qui a permis l’exploration beaucoup plus systématique de toutes les formes de rayonnement : il faut dire que l’atmosphère terrestre bloque une grande partie de celui-ci, à l’exception de l’étroite fenêtre du domaine visible et du domaine plus large des radiofréquences.

Les astronomes disposent désormais de moyens d’investigation très performants. Sur Terre, la coopération internationale a permis la construction de télescopes géants dans des endroits privilégiés : observatoire de Cerro-Paranal dans le désert d’Atacama, observatoire de Mauna-Kea à Hawaï par exemple. Le VLT (Very Large Telescope) construit par l’ESO au Chili combine les signaux provenant de quatre télescopes du 8,20 m de diamètre pour obtenir des signaux avec une résolution inégalée. Le futur E-ELT (European Extremely Large Telescope, mise en service prévue en 2022 dans le désert d’Atacama au Chili) utilisera la technologie des miroirs adaptatifs pour s’affranchir de l’effet des turbulences atmosphériques. Avec ses 39 m de diamètre et ses 798 miroirs dont la position et l’orientation sont pilotées par ordinateur, il sera le plus grand télescope jamais construit au monde. Le TMT (Thirty Meters Telescope) est un projet dirigé par les Américains en coopération avec le Japon, le Canada et la Chine qui combinera 492 segments de 1,4 m pour obtenir un diamètre de 30 m. Il sera installé sur le site de Mauna Kea à Hawaï. Tous ces télescopes bénéficient bien évidemment des progrès extraordinaires réalisés au cours des dernières années dans le domaine de l’imagerie CCD.

Des radiotélescopes, qui ne nécessitent pas de se trouver dans un environnement particulièrement protégé, ont été construits un peu partout dans le monde. Le plus grand radiotélescope aujourd’hui en service est celui d’Arecibo à Porto-Rico (305 m de diamètre). Le radiotélescope FAST actuellement en construction en Chine devrait porter cette dimension record à 500 m. Le dispositif ALMA de son côté utilise un réseau de 54 antennes de 12 m situées dans le désert d’Atacama au Chili pour obtenir une résolution au moins aussi bonne par la technique d’interférométrie.

Une large panoplie de satellites permettent d’explorer le ciel dans toutes les gammes de fréquences compatibles avec la dimension desdits satellites. Les plus fameux sont sans doute Spitzer, dans l’infrarouge, Hubble, dans le domaine visible, Chandra et NuStar pour les rayons X et Fermi pour les rayons gamma. Certains satellites ont une mission très précise : Hipparcos et Gaïa par exemple sont dédiés à l’astrométrie, Planck, qui embarque des bolomètres de grande précision, est à l’affut du fond diffus cosmologique. Dans les années qui viennent, le JWST complètera Hubble dans le domaine infrarouge.

 

Index