Un peu de physique...

Petite histoire de la physique au XXème siècle

A la fin du XIXème siècle, la physique se trouve dans une situation quasi-euphorique. Pour beaucoup de physiciens, on a achevé de construire les 3 piliers fondamentaux de la physique :

  • la mécanique, basée sur les lois de Newton (1686) et généralisée à la fin du XVIIIème siècle par Joseph-Louis Lagrange,
  • la thermodynamique qui, après une longue gestation, a été théorisée par Sadi Carnot, Lord Kelvin et Rudolf Clausius au milieu du XIXème siècle,
  • et enfin l’électromagnétisme que James Clerk Maxwell a synthétisé de manière particulièrement brillante en 1864.

Il semble alors que le programme de la physique a été entièrement accompli et que peu de choses restent à découvrir ou à expliquer.

Pourtant, il subsiste quelques phénomènes que ces trois théories ne peuvent pas expliquer et qui semblent même les contredire. L’amélioration des techniques d’expérimentation et de l’instrumentation ainsi que le développement des laboratoires universitaires consacrés aux sciences physiques tendent même à multiplier les expériences et les découvertes qui ébranlent les certitudes acquises.

Le problème du rayonnement d’un corps noir est l’un de ces phénomènes qui ne rentrent dans le cadre d’aucune théorie connue. Il va intriguer les physiciens pendant près de 50 ans. En 1859, Gustav Kirchhoff a démontré qu’il y avait une relation entre la température d’un corps noir, l’intensité des radiations qu’il émet et leur fréquence. Cependant, malgré tous les efforts, personne ne comprend la nature de cette relation. Pire : si on cherche à l’extrapoler, elle mène à une divergence totalement antiphysique. On l’appelle la catastrophe ultraviolette.

Au chapitre des expériences dérangeantes, il y a celle de Michelson et Morley (1881 et 1887). Ces deux expérimentateurs chevronnés se sont mis en tête de démontrer l’existence de l’éther luminifère, le substrat immatériel dans lequel sont supposées se propager les ondes électromagnétiques décrites par les équations de Maxwell. En vain : la vitesse de la lumière qui devrait être différente au cours d’un aller et retour en fonction de son orientation par rapport à la vitesse de rotation de la Terre par rapport au Soleil s’obstine à rester constante. C’est incompréhensible... alors que les lois de Maxwell s’avèrent par ailleurs parfaitement incontestables.

Du côté des découvertes, les physiciens sont servis. En 1869, des expériences menées en plaçant une anode et une cathode à l'intérieur d'un tube de verre contenant de l'air raréfié permettent de mettre en évidence les rayons cathodiques. William Crookes (1832 – 1919), chimiste et physicien britannique, met au point un dispositif qui permet de les étudier (le tube de Crooks). En 1879, il réalise une expérience qui démontre de manière indiscutable que ce ne sont pas des rayons électromagnétiques (on ignore à l’époque l’existence des électrons).

Johann Balmer (1825 - 1898), physicien suisse, montre en 1885 que la fréquence des raies émises par un gaz d’hydrogène forme une série de nombres proportionnels à des nombres entiers. Nouvelle énigme.

En 1839, Antoine Becquerel (1788 - 1878) avait mis pour la première fois en évidence l’effet photo-électrique. En 1887, Heinrich Rudolf Hertz (1857 – 1894), physicien allemand à qui l’on doit la découverte des ondes hertziennes, publie une longue étude sur ce phénomène inexpliqué par les théories physiques de la fin du XIXème siècle.

En 1896, son fils Henri Becquerel (1852 - 1908) découvre la radioactivité. En 1897, Marie Curie (1867 - 1934) révèle les propriétés ionisantes du rayonnement radioactif et découvre les éléments chimiques qui en sont à l’origine.

 

 Marie Curie

En 1897 également, le britannique Joseph John Thomson (1856 - 1940) est le premier à formuler l’hypothèse de l’existence de l’électron en s’appuyant sur une série d’expériences réalisées avec des rayons cathodiques.

Il faut se remettre dans le contexte de l’époque : l’opinion générale est que la matière est continue. Les intuitions de Ludwig Boltzmann (conception atomistique de la matière, théorie statistique basée sur des micro-états, états d’énergie discrets…) lui valent l’hostilité et les sarcasmes de nombreux physiciens.

Ludwig Boltzmann (1844 - 1906) a développé sa théorie expliquant les caractéristiques des gaz par une méthode statistique en 1860. Sa théorie suscita une très vive réaction de la part de l’école énergétiste qui réfutait catégoriquement l’hypothèse atomiste. La charge la plus virulente fur menée par le chimiste d’origine lettone Wilhelm Ostwald (1853, 1932). Boltzmann en resta profondément blessé. Dépressif, il se suicida en 1906.

On doit à Ludwig Boltzmann la formule qui permet de calculer l’entropie d’un système.

L’expérience de Michelson et Morley

Pour les scientifiques de la fin du XIXème siècle, l’espace dans lequel le monde évolue obéit aux lois de la géométrie euclidienne et le déplacement de tous les corps matériels peut être exprimé dans un repère géométrique qui ne dépend pas d’eux : c’est ainsi que Newton avait décrit notre monde réel dans son livre Philosophiæ Naturalis Principia Mathematica. L’électromagnétisme est un phénomène de notre monde réel et même s’il ne peut être décrit par les mêmes lois que celles de la mécanique, il est raisonnable de penser qu’il se déroule dans le même espace et peut être décrit en utilisant le même repère.

Pour concilier la théorie de Maxwell avec la mécanique newtonienne, il fallait donc trouver dans quel repère se propageaient la lumière et les ondes électromagnétiques. L’idée prévalait à l’époque qu’il existait un milieu imperceptible à nos sens et emplissant l’univers, baptisé éther luminifère, dans lequel se propageaient les ondes électromagnétiques. Restait à démontrer l’existence de ce milieu.

C’est à cette tâche que s’attela Albert Abraham Michelson (1852-1931), un jeune physicien américain d’origine allemande. En 1881, il monta une première expérience à cet effet avec un interféromètre de son invention, composé de deux bras faisant un angle de 90 degrés entre eux.

Le principe de cette expérience était simple. Si la lumière se propage dans un milieu indépendant du mouvement des étoiles et des planètes, il doit être possible de mesurer un écart de vitesse en fonction de la direction de propagation de la lumière par rapport à celle du déplacement de la Terre. En répétant l’expérience sur un intervalle de 6 mois, on s’affranchit du risque que cet écart soit minimisé compte tenu du mouvement relatif de la Terre et du soleil. La vitesse de rotation de la Terre par rapport au soleil est de 30 km/s : c’est faible par rapport à la vitesse de la lumière, mais c’est mesurable par interférométrie. Le dispositif préparé par Michelson avait pour objectif de mesurer la différence de vitesse de la lumière entre deux directions perpendiculaires.

L’expérience ne fut pas concluante. Michelson réalisa que son interféromètre était insuffisamment précis. Il n’abandonna pourtant pas son projet. Il s’associa avec Edward Morley (1838-1923), professeur renommé de l’Université de Cleveland. Ils reproduisirent ensemble l’expérience en 1887 avec un matériel plus précis et un protocole d’essais révisé. Le résultat était cette fois sans équivoque : la vitesse de la lumière restait constante, quelque soit la direction et la position de la Terre par rapport au soleil.

Coup de tonnerre dans le ciel serein d’une science que l’on pensait tout près d’avoir accompli son programme. Deux de ses piliers, la mécanique newtonienne et l’électromagnétisme dans la formulation de Maxwell s’avéraient totalement irréconciliables.

Ernst Mach (1838-1916), physicien autrichien connu pour ses travaux sur la compression des gaz et la vitesse du son, émit le premier l’hypothèse qu’il fallait abandonner le concept d’éther. Il ne proposait aucune théorie alternative et sa proposition suscita peu d’écho.

Hendrik Antoon Lorentz

 

C’est Hendrik Antoon Lorentz, physicien néerlandais (1853-1928, prix Nobel en 1902), qui apporta le premier élément de solution au problème posé par l’expérience de Michelson et Morley. Il montra en 1892 qu’il existait une transformation linéaire des coordonnées qui permettait de concilier la cinématique newtonienne et les équations de Maxwell à condition d’appliquer simultanément une transformation de la coordonnée temporelle. Il reformula de manière synthétique ses équations dans un article paru en 1899.

Cet article intéressa au plus haut point Henri Poincaré (1854-1912), l’un des plus brillants mathématiciens de la seconde moitié du XIXème siècle. Il corrigea et reformula sous une forme très générale les équations de Lorentz. Il montra également que ce qu’il appelait les transformations de Lorentz forment un groupe au sens mathématique du terme, groupe dont la vitesse de la lumière est un invariant. La postérité donnera à ce groupe le nom de groupe de Poincaré. En 1905, il présenta à ce sujet une note « sur la dynamique de l’électron » à l’Académie des Sciences. Henri Poincaré avait déjà développé l’idée que la notion de temps absolu et d’espace absolu pourrait très bien n’être qu’un artefact (1902 – La science et l’hypothèse). Pourtant, en scientifique prudent qu’il était, il ne tira pas toutes les conséquences possibles des transformations de Lorentz. Pour lui, elles ne s’appliquaient qu’à l’électron.

Albert Einstein (1879-1955), jeune physicien d’origine suisse travaillant à l’époque à l’office des brevets de Berne, n’a pas cette prudence. Il publie en 1905 une série d’articles qui vont révolutionner la physique. Le premier concerne l’effet photoélectrique (il est considéré comme l’un des articles fondateurs de la physique quantique) et le second le mouvement brownien. Le troisième s’intitule « Sur l’électrodynamique des corps en mouvement » : il propose de généraliser les transformations de Lorentz (dans la formulation de Poincaré) à tous les corps en mouvement et d’abolir la notion de temps absolu. Le quatrième est le plus connu, c’est celui dans lequel il formule la fameuse équation « E = m c2 ».

Lorentz et Poincaré ont donc établi les bases mathématiques de la relativité restreinte. Einstein en a formulé très clairement l’impact sur la mécanique des corps en mouvement et il en a déduit l’équivalence entre matière et énergie (sans doute son apport le plus décisif). C’est Hermann Minkowski (1864-1909) qui paracheva l’édifice en donnant un cadre géométrique à la relativité restreinte.

Max Planck

Max Planck est un physicien renommé. Max Karl Ernst Ludwig Planck est né en avril 1858 à Kiel. Il mourra en octobre 1947 à Göttingen. C’est un étudiant brillant. Il a comme professeurs Hermann Von Helmholtz et Gustav Kirchhoff, tous deux des physiciens réputés. Sa thèse porte sur le second principe de la thermodynamique et la notion d'entropie. A 34 ans, il est nommé professeur à l’Université Humboldt de Berlin, l’une des plus réputées d’Europe. Il s’intéresse toujours à la thermodynamique mais ses thèmes de recherche ne se limitent pas à ce domaine.

Dans un premier temps, il réfute les idées de Boltzmann : il rejette l’atomisme et pense que la matière est continue. Ses recherches et les différentes découvertes de la fin du XIXème siècle vont le faire évoluer. Il se rallie à la théorie statistique au cours des années 90 et en fait même l’un de ses sujets de recherche.

 

Max Planck

Courtesy of the Clendening History of Medicine Library, University of Kansas Medical Center

Il s’attaque au problème du rayonnement du corps noir à partir du 1894. A la fin du XIXème siècle, le développement de l’industrie sidérurgique est un enjeu stratégique majeur pour les puissances occidentales. Comprendre et prédire le rayonnement d’un corps noir, c’est se donner les moyens de maîtriser la température à l’intérieur d’un haut-fourneau, condition sine qua non de l’obtention d’un acier de qualité.

Le problème est ardu. De nombreux physiciens réputés s’y sont cassé les dents : Jožef Stefan, Ludwig Boltzmann, Wilhelm Wien, Friedrich Paschen, Lord Rayleigh… Aucun des modèles qu’ils ont proposés ne permet de couvrir la totalité du spectre et tous aboutissent à une aberration : la puissance rayonnée selon ces modèles serait infinie (la catastrophe ultra-violette).

Max Planck se heurte aux mêmes difficultés que ses éminents confrères. Il tourne en rond sans trouver de solution. C’est alors qu’il se décide, sans conviction, à appliquer au corps noir la méthode statistique de Boltzmann : il considère le rayonnement du corps noir comme le résultat de l’émission d’une multitude de résonateurs discrets. Cela ne suffit pas à résoudre le problème mais cela le met sur la voie.

A la fin de l’année 1900, il envoie un article à la société physique de Berlin. Il donne un modèle complet du rayonnement du corps noir. La validité de son modèle tient à une condition. Il faut admettre qu’il existe un quantum d'énergie pour chacun des résonateurs tel que :

E = h ν

avec ν la fréquence du rayonnement et h une constante que l’on appellera plus tard constante de Planck. La loi qu’il établit à partir de là fait intervenir une autre constante ( kB ) qu’il baptisa lui-même constante de Boltzmann.

Planck n’a pas conscience, lorsqu’il formule cette loi, qu’elle va révolutionner complètement la physique. Il écrit même que cette formule est un « acte de désespoir » tant les perspectives qu’elle ouvre lui paraissent extravagantes.

Il faut ensuite attendre 1905 pour qu’un jeune physicien de 26 ans, Albert Einstein, reprenne l’idée de Planck pour expliquer l’effet photoélectrique. C’est l’acte de naissance du photon. C’est d’ailleurs cette découverte qui lui vaudra le prix Nobel en 1921. Planck quant à lui reçut ce prix en 1918 pour sa découverte de la théorie des quanta.

La révolution quantique

La physique quantique est une science jeune : on a coutume de dire qu’elle est née avec le XXème siècle, plus précisément un jour d’octobre 1900 lorsque Max Planck a fait l’hypothèse de l’existence d’un quantum d’énergie pour expliquer la nature du rayonnement des corps noirs.

En 1900, l’existence des atomes n’était pas encore établie. La polémique était vive entre ceux, comme Ludwig Boltzmann qui défendait l’hypothèse atomiste et les tenants de l’école énergétiste qui la repoussait catégoriquement. La charge la plus virulente fut menée par le chimiste d’origine lettone Wilhelm Ostwald (1853, 1932). Boltzmann en resta profondément marqué. Dépressif, il se suicida en 1906. Tragique ironie de l'histoire, c’est en 1906 que Jean Perrin mit en évidence expérimentalement la structure atomique de la matière.

Il serait pourtant injuste de ne pas rendre hommage à l’esprit visionnaire de quelques précurseurs géniaux ! Deux mille cinq cents ans avant Boltzmann et Perrin, quelques philosophes grecs avaient formulé l’hypothèse d’un Univers constitué d’atomes et de vide. On attribue à Démocrite d’Abdère, un philosophe grec né en Thrace au 5ème siècle avant notre ère, la paternité de cette hypothèse. Il semblerait qu’il ait emprunté une partie de ses idées à son maître Leucippe, un philosophe présocratique. Les idées de Démocrite ont été fermement combattues par Platon. Aristote reprend à son compte les critiques de Platon et rejette en bloc le matérialisme et l’atomisme de Démocrite

L’œuvre de Démocrite nous serait d’ailleurs totalement inconnue si le philosophe Epicure (-342, -270) puis le poète romain Lucrèce (1er siècle avant notre ère) ne l’avaient pas reprise et commentée. C’est la découverte d’un manuscrit du poème De Rerum Natura de Lucrèce qui a fait connaître les idées de Démocrite à l’époque de la Renaissance. Il faudra cependant attendre encore plusieurs siècles avant que l'on admette qu'elles avaient un fondement scientifique. C'est au milieu du XIXème siècle que l'hypothèse atomiste ressurgit. L'histoire des sciences va connaître alors une prodigieuse accélération.

L'hypothèse de la quantification de l'énergie rayonnée par un corps noir formulée par Max Planck en 1900 et plus encore l'article fondateur d'Einstein sur l'effet photoélectrique en 1905 vont mettre le feu poudre. La révolution quantique est en marche. Les 30 années qui vont suivre vont être le théâtre d’une incroyable aventure de la pensée humaine.

Physique quantique, pièce en quatre actes

Le premier acte est celui des découvertes expérimentales qui lèvent le voile sur le monde étrange des particules élémentaires. Dans un milieu scientifique convaincu de disposer des bases permettant d’expliquer à peu près tous les phénomènes physiques, une série de découvertes fortuites ont progressivement remis en cause toutes les certitudes.

On peut dater le prologue de cet acte à l’année 1896, lorsqu’Antoine Becquerel découvre la radioactivité. Un an plus tard, Joseph Thomson démontre que les rayons cathodiques découverts par William Crookes en 1878 sont constitués de minuscules particules chargées qu’il baptisera du nom d’électrons. Il faudra ensuite attendre l’année 1906 pour que Jean Perrin mette clairement en évidence la nature atomique de la matière. Trois ans plus tard, Ernest Rutherford, physicien britannique né en Nouvelle Zélande et enseignant à Cambridge, démontre que l’atome s’organise autour d’un noyau chargé positivement. (Ernst Rutherford avait obtenu le prix Nobel de chimie l'année précédente pour ses travaux sur la radioactivité.)

En 1913, Niels Bohr propose le premier modèle atomique. C’est un modèle semi-classique qu'il a aménagé pour accommoder la notion de quantification de l’énergie des photons introduite par Albert Einstein en 1905. Dans ce modèle, les électrons sont en orbite autour d'un noyau. Seules certaines orbites sont possibles. C’est en passant d’une orbite à une autre que les électrons émettent un rayonnement. C’est la première explication plausible des fameuses séries de raies mises en évidence par Johann Balmer. Les raisons de la limitation des orbites possibles restent néanmoins confuses. Prisonnière de schémas de pensée obsolètes, la communauté scientifique peine à trouver des explications cohérentes mais les expérimentations continuent de dévoiler des aspects cachés de la physique atomique. En 1919 Rutherford met en évidence l’existence du proton. En 1922 Otto Stern et Walther Gerlach découvrent une propriété tout à fait inédite de l’électron : le spin. Cette propriété n’a aucune explication dans le cadre de la physique classique. Corps noir, effet photo-électrique, rayonnement des atomes, spin de l'électron : la quantification de l’énergie et des caractéristiques des particules commence à se dévoiler...

Le deuxième acte débute en 1924. Les années 1924-1928 vont révolutionner la physique.

L’action se déroule dans une zone géographique que l’on peut qualifier de triangle d’or de la physique quantique, entre Göttingen, Berlin et Copenhague. La révolution quantique va naître de la convergence de propositions totalement iconoclastes formulées par des physiciens jeunes et brillantissimes.

Le coup d’envoi est donné en 1924 par un jeune doctorant, Louis de Broglie, qui propose d’associer une onde à toute particule. Cette dualité onde-particule est une propriété connue de la lumière. De Broglie fait l’hypothèse qu’elle s’applique aussi aux particules massives, et en premier lieu à l’électron. C’est une remise en cause radicale des fondements de la physique. Clinton Joseph Davisson et Lester Albert Germer montreront en 1927 que cette hypothèse est confirmée par l’expérience. C’est la base de ce que l’on a coutume d’appeler la dualité onde-particule, un des piliers de la physique quantique.

Werner Heisenberg porte le deuxième coup. Il est convaincu que l’on doit abandonner le concept classique de trajectoire. Pour lui, les transitions entre deux positions successives ne peuvent pas être connues de manière certaine : seule leur probabilité peut être calculée. Il propose en 1925 de remplacer les équations dynamiques du mouvement par des matrices donnant la probabilité de transition entre états. Deux ans plus tard, en 1927, il ira encore plus loin en formulant le principe d’indétermination : on ne peut pas connaître simultanément de manière infiniment précise la position et la quantité de mouvement d’une particule.

Wolfgang Pauli travaille depuis plusieurs années sur le spin de l’électron lorsqu'il postule, en 1925, le principe d’exclusion. Deux électrons, et plus largement deux particules, ne peuvent pas se trouver dans le même état quantique. Le principe d'exclusion expliquer l’étagement des niveaux d’énergie des électrons d’un atome.

En 1926, Erwin Schrödinger, intrigué par la dualité onde-particule proposée par de Broglie, formule l’équation qui décrit le comportement dynamique de l’onde associée à un électron. Peu de temps auparavant, Max Born et Heisenberg avaient proposé une autre formulation. Elle était, malheureusement pour eux, beaucoup plus complexe et c’est l’équation de Schrödinger qui passera à la postérité.

 

 Wolfgang Pauli

Dans l’esprit de Schrödinger, cette onde est une onde de matière. Max Born émet alors une hypothèse totalement iconoclaste. Il suggère que l’onde décrite par l’équation de Schrödinger n’est pas une onde de matière mais une fonction d’onde décrivant la probabilité de la particule de se trouver à un endroit donné : le carré du module de cette fonction représente la densité de probabilité de la présence de l’électron en ce point. Il fait ainsi la jonction entre la représentation matricielle d’Heisenberg et la représentation ondulatoire de Schrödinger. Probabilité de présence d’une particule en un point, principe d’indétermination : la physique quantique s’écarte définitivement du déterminisme classique. Cette éventualité ne satisfait pas Einstein qui aura cette formule célèbre « Le Vieux ne joue pas aux dés. »

 Paul Dirac

 

De son côté, Pauli, qui poursuit ses travaux sur le spin, rompt avec le concept traditionnel de champ vectoriel et propose une représentation mathématique originale à base de matrices complexes pour rendre compte de ses propriétés. En 1928, Paul Dirac parachève l’œuvre de Schrödinger et de Pauli en donnant une version relativiste de l’équation dynamique de la fonction d’onde de l’électron. Cette formulation l’amène à prédire l’existence de l’antimatière. La confirmation expérimentale viendra en 1932, date à laquelle Carl David Anderson, 1905 – 1991) découvre le positron.

En 1932, le mathématicien hongrois John Von Neumann donne un cadre mathématique rigoureux dans lequel la mécanique quantique peut s’exprimer. Ce cadre s’appuie sur des concepts abstraits assez peu intuitifs comme l’espace de Hilbert et les opérateurs. C'est le formalisme qui est utilisé aujourd'hui.

Dualité onde-particule, fonction d'onde, principe d'exclusion, principe d'indétermination... En 1930 on a compris la structure de l’atome. On va s’attaquer à celle du noyau. En parallèle, les physiciens vont chercher à comprendre l’origine de la désintégration béta que le modèle atomique n’explique pas. C'est le troisième acte. En 1930, Wolfgang Pauli fait l’hypothèse de l’existence du neutrino pour expliquer la non-conservation apparente de l’énergie dans la désintégration béta. Il faudra attendre cette fois 26 ans pour que l’existence du neutrino soit confirmée expérimentalement.

C'est en 1932 également James Chadwick met en évidence l’existence du neutron. En 1933 Enrico Fermi propose un premier modèle permettant d'expliquer la radioactivité bêta (désintégration de l’uranium). L’interaction décrite par cette théorie sera baptisée ultérieurement interaction faible. Un an plus tard, Hideki Yukawa fait l’hypothèse de l’existence d’une quatrième force d’interaction, l’interaction forte, pour expliquer la cohésion du noyau. malgré la répulsion coulombienne. Le méson π, vecteur de l’interaction forte, sera mis en évidence expérimentalement en 1947.

Le début des années 30 est aussi la période pendant laquelle le physicien italien Ettore Majorana émet ses hypothèses les plus fécondes (effet tunnel, radioactivité alpha, explication des liaisons chimiques par les électrons de valence, particule de Majorana...). Fragile psychologiquement, Majorana refuse de publier, au grand désespoir de son ami Enrico Fermi. Il se suicidera en 1938.

On le voit, tout était en place pour que la décennie des années 30 soit aussi riche en découvertes et en avancées théoriques que la décennie précédente. Un événement politique capital va mettre un coup d’arrêt brutal à cette progression. En 1933, Adolf Hitler accède au pouvoir. La « physique juive » est mise au banc des universités. Elle a vocation à être remplacée par une « physique allemande ». La chasse aux sorcières est lancée. La plupart des acteurs de la révolution quantique émigrent. Seuls Heisenberg, Hahn et Strassmann vont rester en Allemagne et se mettre au service du régime nazi. Le centre de gravité des découvertes traverse l’atlantique et s’installe durablement aux Etats-Unis. Mais il faudra attendre une quinzaine d’années pour que la marche en avant reprenne. Pendant cet intervalle de temps, le projet Manhattan va monopoliser les énergies. La première bombe atomique explose sur Hiroshima le 6 août 1945.

Le quatrième acte débute en 1947. Le premier acte était celui des découvertes. Le second avait permis de jeter les bases théoriques de la physique quantique et de comprendre le comportement des atomes. Au cours du troisième on avait ébauché les théories permettant de comprendre la cohésion du noyau et la radioactivité. Le quatrième acte verra l’avènement des théories du champ quantique.

La plupart des scientifiques qui ont contribué à créer les bases de la physique quantique travaillaient et enseignaient en Europe centrale. Le centre de gravité de cette nouvelle science se trouvait quelque part entre Leipzig et Copenhague. L’arrivée au pouvoir de Hitler en 1933 va tirer le rideau sur cette aventure. Fin de parti. La plupart des acteurs vont émigrer (seul Heisenberg va rester en Allemagne pour y poursuivre son activité). Le ressort est cassé et les préoccupations des uns et des autres les éloignent de la recherche fondamentale.

L’histoire cependant ne s’arrête pas là. Les grands noms de la physique quantique ont presque tous émigré aux Etats-Unis. Ils se retrouvent dans les grandes universités américaines où de jeunes étudiants brillants les écoutent avec avidité. Cela va permettre de former une nouvelle génération de scientifiques qui à leur tour vont développer et enseigner la physique quantique. Il faudra néanmoins attendre la fin de la deuxième guerre mondiale pour que l’aventure reprenne son cours. Il est vrai que, pendant les années de guerre, tous les efforts de recherche furent polarisés par le projet Manhattan.

 

L’histoire de la genèse de la bombe atomique est relativement courte : elle s’étend de 1938 à 1953. C’est à la fin de l’année 1938 que les chimistes allemands Otto Hahn et Fritz Strassmann ont découvert expérimentalement la fission de l’uranium. Elle sera expliquée un an plus tard par Lise Meitner et otto Frisch.

Le 1er septembre 1939, le jour du déclenchement de l’invasion de la Pologne par les troupes allemandes, Niels Bohr et John Archibald Wheeler publient un article expliquant le mécanisme de la fission nucléaire. Au même moment, à Léningrad, Yakov Zeldovitch et Youli Khariton travaillent à comprendre le mécanisme des réactions en chaîne.

Le projet américain de développement d’une bombe atomique (le projet Manhattan) est lancé en 1942, c’est le physicien Robert Oppenheimer qui en prend la direction sur le plan scientifique. La première bombe explose à Alamogordo en juillet 1945. La première bombe soviétique explose en 1949.

Les américains se lancent alors dans le développement de la bombe à hydrogène sur les bases d’un plan initial d’Edward Teller. La première bombe à hydrogène américaine (bombe exploitant l’énergie de fusion du noyau d’hélium) explose en 1952. Les soviétiques ne sont pas en reste. Une équipe constituée de Zeldovitch, Vitaly Ginzburg et Andreï Sakharov met au point la première bombe à hydrogène russe qui explose en 1953. Ginzburg, considéré comme politiquement peu "sûr" sera rapidement écarté par le pouvoir soviétique.

 

En 1947, Richard Feynman, Julian Schwinger et Freeman Dyson entrent en scène. Ils développent l’électrodynamique quantique relativiste (QED : quantum electrodynamics). C’est une théorie cohérente de l’interaction électromagnétique dans un contexte quantique et relativiste. C’est la première pierre à l’édifice de ce que l’on appelle désormais la théorique quantique des champs. Richard Feynman, Julian Schwinger partagèrent le prix Nobel 1965 avec Sin-Itiro Tomonaga, un physicien japonais qui travailla sur une théorie quantique du champ électromagnétique à la même époque.

Richard Feynman a 29 ans en 1947. Sa contribution à la physique quantique ne se limite pas à l’électrodynamique quantique. Il va également reformuler la mécanique quantique à l'aide du concept d’intégrale de chemins et inventer les diagrammes qui portent aujourd’hui son nom et qui sont utilisés en théorie quantique des champs (diagrammes de Feynman). Le concept d’intégrale de chemins généralise le principe de moindre action de la mécanique classique et l’étend à la mécanique quantique. Les diagrammes de Feynman sont une représentation graphique des différentes interactions possibles entre deux particules. Ils sont utilisés pour réaliser les calculs de diffusion dans la méthode de décomposition perturbative d’une interaction. La méthode de la décomposition perturbative est l’une des autres contributions majeures de Richard Feynman à la physique quantique. Richard Feynman était aussi un excellent pédagogue et il a largement contribué à former la nouvelle génération de scientifiques qui reprendront le flambeau après lui.

 

Richard Feynmann

 The Nobel Foundation

Poursuivons notre histoire...

Les années 50 sont des années pendant lesquelles la physique quantique se diffuse. Des labos se montent, de nouveaux chercheurs sont formés, les techniques d’expérimentation s’affinent, de nouvelles particules sont découvertes… C’est une période de gestation et de consolidation qui précède la décennie des années 60 pendant laquelle la théorie quantique des champs va connaître ses développements les plus specatculaires

En 1954, Chen Ning Yang et Robert Mills formulent le principe des théories de jauge (encore appelées théories de Yang-Mills), ouvrant la voie aux découvertes qui vont suivre.

En 1962 Murray Gell-Mann fait l'hypothèse de l'existence des quarks pour expliquer la composition des protons et des neutrons. L'hypothèse de Gell Mann fut confirmée par l’expérience en 1969.

En 1964, les belges Robert Brout et François Englert ainsi que le britannique Peter Higgs proposent un mécanisme dit de " brisure de symétrie " pour expliquer la masse des particules élémentaires. Le boson de Higgs qui est l’agent de cette brisure de symétrie sera découvert expérimentalement en 2012. François Englert et Peter Higgs se sont partagés le prix Nobel 2013. Malheureusement pour lui, Robert Brout est mort trop tôt pour pouvoir partager avec eux cette récompense.

En 1967, Sheldon Lee Glashow , Steven Weinberg et Abdus Salam formulent la théorie électrofaible qui fait la synthèse entre l’électromagnétisme et la force nucléaire faible en mettant en pratique le mécanisme BEH (Brout-Englert-Higgs).

Une fois de plus la confirmation par l’expérience sera postérieure à la prédiction théorique (découverte des bosons W et du boson Z0 en 1973). Ils reçurent tous les trois le prix Nobel en 1979.

En 1973, Hugh David Politzer, Frank Wilczek et David Gross formulent la chromodynamique quantique (QCD : Quantum ChromoDynamics ), une théorie décrivant l’interaction forte dans le cadre de la théorie quantique des champs. La chromodynamique quantique explique le confinement des quarks dans les hadrons (protons et neutrons). Ils reçurent tous les trois le prix Nobel en 2004. Le gluon, médiateur de l'interaction forte, sera mis en évidence en 1979.

Au début des années 70, la physique quantique est devenue synonyme de recherche fondamentale. C’est aussi devenu un enjeu politique. Il faut de gros moyens pour poursuivre la recherche. Aux Etats Unis, ces recherches sont l’apanage de quelques grandes universités américaines. En Europe, les états mettent leurs moyens en commun. Le CERN, créé en 1952, connaît véritablement son essor à partir de 1971 (Super Synchrotron à Protons, puis Large Electron Positron Collider en 1981 et enfin Large Hadron Collider mis en service en 2008). C’est le LHC qui va permettre la découverte du boson de Higgs au printemps 2012.

 

La théorie de jauge est un monument de la pensée scientifique. Sur la base de considérations purement théoriques et à partir du théorème de Noether (dont Einstein disait déjà qu’il était un monument de la pensée mathématique) et des groupes de Lie, les théories de jauge ont permis de prédire l’existence de particules qu’on a parfois mis plus de 10 ans à découvrir par la suite. Les théories de jauge (la théorie électrofaible et la QCD ou quantum chromodynamics) font apparaître un ordre tout à fait étonnant dans le tableau des particules élémentaires.

Le Modèle standard des particules

(d’après Loqueelvientoajuarez, Wikimedia Commons)

 

Le paradoxe EPR

Ce n’est pas au sein d’un grand laboratoire que sera définitivement tranchée l’une des questions qui taraudaient la communauté scientifique depuis près d’un demi-siècle.

L’intrication est une propriété très déroutante qui découle de la physique quantique. Elle est si déroutante qu’elle conduisit Einstein à remettre en question la "complétude" de la physique quantique. Il écrivit en 1935 un article en ce sens avec deux de ses collaborateurs, Boris Podolsky et Nathan Rosen (article auquel on fera par la suite référence sous le nom de paradoxe EPR, acronyme construit à partir des initiales de ses auteurs).

Pour résoudre ce paradoxe, il fallait être en mesure de trancher entre les deux termes de l’alternative suivante :

  • ou bien le principe d’indétermination de la physique quantique résulte de notre connaissance incomplète des lois de la physique et il existe des variables cachées qui expliquent le comportement apparemment aléatoire des particules,
  • ou bien il faut se résoudre à admettre que la théorie quantique est une théorie "non locale" puisqu’une mesure effectuée sur l’une des particules d’une paire de particules intriquées détermine le résultat de la mesure que l’on peut faire sur la deuxième, nonobstant la distance entre l’une et l’autre.

C’est John Bell, un physicien irlandais, qui proposa le premier, en 1964, une formulation qui ouvrait la voie à l’expérimentation. Cette expérimentation ne viendra que 16 ans plus tard compte tenu des difficultés de réalisation. Elle fut réalisée entre 1980 et 1982 par Alain Aspect et son équipe au laboratoire d’Orsay.

John Bell pensait qu’Einstein avait raison : les expériences d’Alain Aspect ont démontré qu’il avait tort. Beau joueur, il dira à cette occasion :

« For me, it is so reasonable to assume that the photons in those experiments carry with them programs, which have been correlated in advance, telling them how to behave. This is so rational that I think that when Einstein saw that, and the others refused to see it, he was the rational man. The other people, although history has justified them, were burying their heads in the sand. ... So for me, it is a pity that Einstein's idea doesn't work. The reasonable thing just doesn't work. »

Il faut se faire une raison : en physique quantique, ce qui est raisonnable ne marche pas. The reasonable thing just doesn't work...

Panorama des principales découvertes de la physique des particules au XXème siècle. Cliquer sur l'image. La décennie qui va de 1922 à 1932 est extraordinairement féconde.

 

Les recherches en physique théorique aujourd’hui

La recherche en physique théorique est très active. Le modèle standard des particules est désormais considéré comme achevé : la découverte du boson de Higgs a définitivement démontré sa validité. Le sujet qui est aujourd’hui au centre des recherches est celui de la gravité quantique. La théorie de la relativité générale a démontré sa validité en astrophysique mais aussi dans notre vie courante (GPS). De son côté, la physique quantique s’avère d’une précision redoutable : ses prédictions sont vérifiées avec une précision d’un milliardième. Pourtant, la physique quantique et la relativité générale sont incompatibles. A l’échelle de Planck, les fluctuations quantiques empêchent de définir une métrique utilisable. Le cadre de la physique quantique est bien relativiste… mais il ne prend en compte que la relativité restreinte et échoue à intégrer la gravitation. Les tentatives pour dépasser cette incompatibilité et intégrer relativité générale et physique quantique dans le cadre d’une même théorie sont multiples. Les théories de gravitation quantique les plus connues sont la théorie des cordes et la gravité quantique à boucles.

La théorie des cordes est née dans les années 60 : le physicien italien Gabriele Veneziano l’avait proposée initialement pour décrire les interactions au sein des hadrons. Elle manqua son but et fut détrônée par la chromodynamique quantique. Elle fit un come-back spectaculaire en 1984. Cette année-là, le britannique Michael B. Green et l’américain John H. Schwarz résolurent les difficultés théoriques à laquelle elle était confrontée. Elle apparut alors comme une candidate pour concilier relativité générale et physique quantique. Leonard Susskind contribua beaucoup à son développement mais c’est à Edward Witten que l’on doit les principales avancées de la théorie des cordes. En 1995 il montra que les 5 théories concurrentes de la théorie des cordes pouvaient être dérivées d’une théorie unique, la M-théorie, encore appelée théorie des supercordes. Malgré les avancées, la théorie des cordes n’a pas réussi à s’imposer : l’espace à 10 (ou 11) dimensions auquel elle fait référence ouvre des possibilités infinies et rien ne permet, aujourd’hui encore, de définir la topologie des 6 (ou 7) dimensions supplémentaires ! C’est très embarrassant : les caractéristiques des particules élémentaires dépendent directement de cette topologie.

La gravité quantique à boucles apparaît comme un challenger sérieux de la théorie des cordes. En 1998, Abhay Ashtekar a ouvert la voie à la gravité quantique à boucles en trouvant une formulation des équations de la relativité générale sous une forme canonique (hamiltonienne). Cette formulation permet de quantifier la métrique et d’en déduire une fonction d’onde d’Univers. Les vecteurs propres du hamiltonien de cette fonction d’onde sont des boucles. L’espace-temps apparaît comme un réseau de boucles (encore appelé réseau de spins). Roger Penrose, Carlo Rovelli et Lee Smolin sont les principaux contributeurs au développement de cette théorie. Elle rejoint, par certains aspects, la géométrie non commutative développée par le mathématicien français Alain Connes. La gravité quantique à boucles piétine elle aussi : son formalisme est redoutablement complexe et, tout comme la théorie des cordes, les physiciens peinent à établir le cadre mathématique qui leur permettrait de progresser.

Pour terminer ce tour d’horizon des développements récents de la physique, on peut citer les travaux de Tomasz Konopka, Fotini Markopoulou-Kalamara et Lee Smolin qui étudient la structure de l’espace-temps sous son aspect purement causal. L’espace-temps que nous percevons ne serait, selon eux, qu’une propriété émergente d’un ensemble causal (causal set).

Gerard’t Hooft est l’auteur, avec Leonard Susskind , du principe holographique. Ce principe établit une relation directe entre un espace soumis à la gravitation et ce qui se passe sur son enveloppe. Le principe holographique doit beaucoup aux travaux de Juan Maldacena, un physicien argentin qui a établi ce principe pour un univers anti-de Sitter.

 

Index