|
Petite histoire des mathématiques Petite histoire de la physique classique Petite histoire de la cosmologie |
Théories et modèles
Théorie de la relativité générale, théorie de l’électrodynamique quantique, modèle standard de la cosmologie, modèle standard des particules… Théories et modèles sont au centre de la recherche scientifique. Bien souvent dans les articles de vulgarisation scientifique on ne fait pas la différence entre les deux. Cela conduit à des incompréhensions et à des jugements à l’emporte-pièce. Essayons de faire la part des choses.
Théorie scientifique
Qu’est-ce qu’une théorie scientifique ?
Une théorie est caractérisée par un champ d’application, elle s’appuie sur des hypothèses de départ (des conditions initiales ou des paramètres qui dépendent de phénomènes hors champ) et elle exclut un certain nombre de phénomènes physiques.
A partir de là, une théorie formule des propositions qui s’expriment sous la forme de principes ou de lois qui permettent de décrire et de prédire l’évolution des phénomènes physiques auxquels elle s’intéresse. C’est à la justesse de ces explications et de ces prédictions qu’une théorie est jugée. Le philosophe des sciences Karl Popper résume cela en disant qu’une théorie scientifique doit être falsifiable. Autrement dit, on doit pouvoir la juger sur pièce. Une théorie qui fait des prédictions impossibles à vérifier (et dont on ne peut pas démontrer qu’elle est fausse) n’est pas recevable.
Mais revenons aux prémices. Elles sont très générales. Prenons la théorie de la gravitation universelle de Newton par exemple. Elle s’applique aux phénomènes mécaniques. Mais elle exclut l’électromagnétisme et elle suppose que la vitesse des corps en mouvement est petite devant la vitesse de la lumière. La thermodynamique de son côté s’applique aux échanges de chaleur, elle fait peu de cas de la gravité et ne s’intéresse pas aux phénomènes électriques. La mécanique quantique ne fait pas mieux : elle met totalement de côté la gravité et ne s’occupe que des phénomènes à l’échelle microscopique. Quant à la relativité générale, elle fait l’hypothèse que la densité de matière est définie partout… ce que contredit le principe d’incertitude d’Heisenberg ! (On pourrait de la même façon trouver des exemples en chimie, ou en biologie.)
Le rêve des physiciens serait d’aboutir à une théorie du tout (theory of everything). Einstein a passé les 20 dernières années de sa vie à la rechercher. Les chercheurs qui travaillent sur la théorie des cordes ont caressé cet espoir pendant une quinzaine d’années mais ils sont en train de déchanter. D’ailleurs, le fait de pouvoir combiner deux théories pour n’en faire qu’une seule est considéré comme un exploit et ceux qui y parviennent sont qualifiés de génies ! C’est le cas de Newton qui a montré qu’une pomme tombant d’un arbre était soumise aux mêmes lois qu’une planète autour d’un astre ; de Maxwell qui a réuni l’électricité, le magnétisme et la lumière en une seule théorie ; d’Einstein qui a combiné mécanique et électromagnétisme dans la relativité restreinte…
Une théorie n’est pas une représentation exacte et fidèle de la réalité. Ce n’est qu’un outil pour essayer d’expliquer et de prévoir le déroulement des phénomènes physiques. Et pour cela il faut faire des simplifications et exclure du champ certains phénomènes. C’est ce que fait la thermodynamique qui ne s’intéresse qu’aux propriétés macroscopiques des gaz (pression, température). Il revient à Ludwig Boltzmann (un autre génie) d’avoir montré que la démarche était légitime en faisant le lien entre le comportement statistique des particules et les lois de la thermodynamique. Mais la thermodynamique reste une théorie du macroscopique !
|
Théorie scientifique et vérité La vérité est un concept philosophique. Ce n’est pas un concept scientifique. Les scientifiques ne recherchent pas la vérité. Ils cherchent à établir une théorie qui leur permettra de prédire le plus précisément possible le comportement du monde qui les entoure, ou du moins les phénomènes qu’ils étudient. Mais il leur est impossible de dire si cette théorie représente de manière exacte ces phénomènes : ils peuvent juste dire quel degré de précision elle leur permet d’atteindre. La meilleure théorie est celle qui donne le meilleur degré de précision dans leurs prédictions. C’est, à un instant donné, la meilleure approximation dont disposent les scientifiques dans un domaine donné. Ce degré de précision est d’ailleurs lié à celui des instruments dont ils disposent. Tant que les instruments permettant de mesurer la position des astres dans le ciel sont restés rudimentaires, la théorie géocentrique des épicycles de Ptolémée est restée incontestée. Au XVIème siècles, des décennies de mesures précises de cette position par Tycho Brahé ont montré que cette théorie était par trop imprécise. Les travaux conjugués de Nicolas Copernic et Johannes Kepler ont alors permis de la remplacer par une autre, basée sur l’héliocentrisme et les lois de Kepler. Cette avancée conceptuelle a alors permis à Isaac Newton d’unifier la mécanique céleste et la mécanique terrestre, mettant à bas la théorie proposée dans l’antiquité par Aristote qui différenciait monde sublunaire et supra-lunaire. La théorie de Newton fut consacrée par la prédiction, en 1705, du passage d’une comète en 1759 par Edmund Halley. Triomphe de la précision astronomique ! Au XIXème siècle, les instruments de mesure ont considérablement progressé... et il apparaît que la mécanique newtonienne ne permet pas d’expliquer certaines anomalies observées dans la trajectoire des planètes, comme la précession du périhélie de Mercure. Il faudra attendre 1916 pour que la théorie relativité générale vienne remplacer la mécanique newtonienne en fournissant des prédictions beaucoup précise et en accord avec les mesures astronomiques. A ce jour, la relativité générale est la théorie la plus précise dont nous disposons pour expliquer les phénomènes célestes. Son degré de précision est hallucinant et défie les capacités des instruments les plus sophistiqués. Et pourtant... on sait maintenant qu’elle perd toute validité quand on étudie l’infiniment petit. Théorie extraordinairement précise à l’échelle macroscopique, son domaine de validité n’en est pas moins limité. Comme celui de toute théorie ! |
Modèles
Cette démarche est bien pratique et elle est redoutablement efficace. Il suffit pour s’en convaincre de penser au développement des technologies et à l’importance qu’elles ont prise dans notre vie de tous les jours. Mais elle n‘est pas totalement satisfaisante. La réalité forme un tout. Elle n’est pas compartimentée. Et bien souvent ça coince aux interfaces. Prenons le cas de la relativité générale et de la mécanique quantique. La relativité générale est basée sur la connaissance du tenseur énergie-impulsion en chaque point de l’espace-temps. Elle suppose aussi que celui-ci peut être représenté par une variété continue et différentiable. Or la mécanique quantique nous enseigne qu’il est impossible de connaître simultanément la position et la vitesse d’une particule. Et au cas où on n’aurait pas compris, elle en remet une couche : l’énergie fluctue de façon aléatoire. Des paires particule-antiparticule se créent et disparaissent à tout instant. Allez définir un tenseur énergie-impulsion avec ça !
C’est là qu’intervient la notion de modèle. Un modèle a pour objectif de réunir différentes théories dans un cadre unique de façon à avoir une vue plus globale des phénomènes. Il fonctionne d’abord comme un carnet d’adresse : pour tel type de phénomène, allez voir telle théorie, pour tel autre telle autre théorie. Mais ce n’est pas tout, un modèle cherche aussi à donner une certaine cohérence à l’ensemble… et à boucher les trous.
Donner une certaine cohérence. Nous avons vu que les théories étaient basées sur des hypothèses de départ. Ces hypothèses servent bien souvent à fixer les paramètres dont l’évolution est en dehors du champ de la théorie considérée. Dans un modèle, on fixe les hypothèses pour faire en sorte que les théories s’imbriquent le plus harmonieusement possible entre elles. Qu’une théorie ne donne pas des résultats contradictoires par rapport aux hypothèses définies pour une autre. Et quand on ne sait pas, on invente. C’est le cas par exemple de la matière noire. C’est un ingrédient indispensable du modèle standard de la cosmologie mais, à ce jour, personne ne sait de quoi elle est faite. C’est aussi le cas de la dissymétrie matière-antimatière sans laquelle la théorie nous dénierait toute possibilité d’exister. Ces hypothèses donnent d’ailleurs des pistes de recherche pour les scientifiques : à eux de trouver les preuves que ces hypothèses sont bonnes. Ou pas. Il peut y avoir un Nobel à la clef. C’est ce qui est arrivé à Arnaud Penzias et Robert Wilson qui ont démontré en 1964 que l’hypothèse faite par George Gamow et Ralph Alpher en 1949 sur l’existence du fond diffus cosmologique était bonne (et qui ont confirmé du même coup l’intuition de Georges Lemaître au sujet du Big-bang). C’est aussi ce qui s’est passé pour Peter Higgs, Robert Brout et François Englert qui ont « inventé » le champ de Higgs (ou plutôt le champ BEH) dans les années 1960 pour venir à la rescousse des théories de jauge. La récompense est arrivée 50 ans plus tard.
Robustesse d’un modèle
Mais, me direz-vous, on pourrait choisir n’importe quel modèle. Le fait de tomber sur la bonne solution relève de la chance ! Pas vraiment. Pour recueillir l’assentiment de la communauté scientifique, un modèle (et plus précisément les hypothèses sur lesquelles il repose) doit avoir la cohérence et le pouvoir explicatif le plus élevés parmi tous les modèles possibles. C’est la raison pour laquelle, par exemple, le modèle alternatif de la théorie MOND (la gravitation modifiée) n’a pas la cote et qu’on lui préfère l’hypothèse de la matière noire. La théorie MOND n’est pas relativiste et, en plus, elle n’explique pas ce qui se passe au niveau des amas de galaxies. Deux handicaps qui la plombent aux yeux de l’immense majorité des scientifiques.
Dire d’un modèle qu’il n’est pas robuste, cela revient à proférer un truisme… mais c’est aussi ignorer la nature d’un modèle. Oui, il y a des hypothèses non vérifiées dans un modèle. C’est même une marque de fabrique d’un modèle. C’est d’ailleurs à cela qu’il sert : boucher les trous avec des hypothèses les plus vraisemblables possibles. Mais changer ces hypothèses est très compliqué : il faut les remplacer par d’autres hypothèses qui maintiennent la cohérence de l’ensemble (par exemple, il faudrait une théorie MOND relativiste… et cela semble inextricable) et dont le pouvoir explicatif soit au moins aussi élevé.
Au fond, le seul moyen de faire évoluer un modèle c’est :
- soit de montrer que les hypothèses retenues sont vérifiées expérimentalement,
- soit de montrer que les hypothèses retenues sont infirmées expérimentalement,
- soit de proposer une théorie nouvelle qui intègre en les dépassant des théories existantes.
Dans tous les cas, la gloire du découvreur est assurée !

