Un peu de physique...

Thermodynamique hors de l'équilibre et Structures dissipatives

Jusqu’à présent, nous ne nous sommes pas préoccupés des conditions d’équilibre d’un système thermodynamique. Nous n’avons pris en considération que les transformations entre états supposés à l’équilibre. Comment définit-on un état d’équilibre thermodynamique ?

Stabilité d’un équilibre thermodynamique

Nous allons commencer par le cas d’un système isolé. Un tel système n’échange pas d’entropie avec l’extérieur. Dans ce cas :

image

L’équilibre est atteint lorsque l’entropie atteint sa valeur maximale.

Dans le cas d’un système à entropie et volume constants, l’équilibre correspond à un état d’énergie interne du système minimale. En effet :

image

A entropie S et volume V constants, il vient :

image

L’équilibre est donc atteint lorsque l’énergie interne U est minimale. On peut faire le même type de raisonnement en fixant d’autres variables d’état. L’équilibre correspond toujours à l’atteinte d’un extremum :

  • énergie libre de Helmoltz F minimum si T et V sont constants,
  • enthalpie libre G minimum si T et p sont constants,
  • enthalpie H minimum si S et p sont constants.

Conditions d'équilibre

Dans le cas d’un système isolé, nous avons vu que l’équilibre était atteint lorsque l’entropie S avait atteint un maximum. L’apparition d’une fluctuation dans une petite partie du système se traduit alors par un flux qui tend à réduire la fluctuation. Prenons le cas d’un gaz au sein duquel une différence de température existe entre deux sous-régions d’un volume fermé. L’entropie du système est égale à la somme de l’entropie des deux sous-régions :

image

Chacune de ces sous-régions est caractérisée par une énergie interne Ui et une température Ti. On peut écrire :

image

On est proche de l’équilibre, donc :

image

Il vient :

image

Soit :

image

Le terme du premier ordre doit être nul au point d’équilibre, ce qui signifie ici que les températures s’égalisent. Pour que l’équilibre soit stable, il faut que le terme de second ordre soit négatif en ce point. Ce terme détermine la dynamique de la diffusion. Plus précisément :

image

La perturbation étant locale, CV1 << CV2 :

image

La stabilité repose dans ce cas sur le fait que CV, la capacité calorifique à volume constant, est positive. On peut reprendre ce raisonnement dans le cas de composés chimiques à l’équilibre dans une solution aqueuse (voir le post sur la thermodynamique des réactions chimiques). Dans le cas d’une fluctuation de l’avancement de la réaction entre les réactifs en présence:

image

Comme :

image

Il vient :

image

Cette fois, la condition de stabilité de l’équilibre est que :

image

Systèmes hors d’équilibre

Le monde dans lequel nous vivons n’est à l’évidence pas à l’équilibre thermodynamique. De nombreux systèmes restent dans un état stationnaire tout n’en étant pas à l’équilibre thermodynamique. Ces systèmes sont le siège de flux de chaleur ou de matière entretenus du fait de leur interaction avec le milieu extérieur. Cette interaction peut être de nature très diverse : différence de température ou de concentration entre faces, différence de potentiel électrique, flux de matière. Elle se traduit sous la forme de forces thermodynamiques qui engendrent ces flux.

Prenons l’exemple d’un flux de chaleur dû à un gradient de température entre une paroi soumise à température chaude T1 et une paroi soumise à une température froide T0. Soit dQ la quantité de chaleur qui transite de l’une vers l’autre. La production d’entropie au sein du système s’écrit :

image

La loi de Fourier sur la conduction de chaleur nous enseigne que :

image

k étant le coefficient de conductivité thermique. Ceci permet d’écrire:

image

que l’on peut écrire de la manière suivante :

image

F est la force thermodynamique responsable de l’existence du flux de chaleur et dQ la quantité de chaleur transportée par le flux pendant le temps delta_t.

Généralisation (régime linéaire)

De manière très générale, on peut écrire :

image

Le premier terme au second membre représentant le flux d’entropie à travers la surface enveloppant le système et le second l’intégrale de volume de la production locale d’entropie au sein de celui-ci. On peut montrer que :

image

Fk est la force thermodynamique du processus k et Jk le flux associé à ce processus. (La production d’entropie doit être, bien évidemment, positive.) Lorsque le système est à l’équilibre, forces thermodynamiques et flux sont nuls. Le flux Jk, rappelons le, est engendré par les forces thermodynamiques. Pour des systèmes proches de l’équilibre il est toujours possible de linéariser l’expression donnant le flux Jk :

image

Il vient :

image

Un système hors d’équilibre est caractérisé par le fait que certaines des forces thermodynamiques sont maintenues à une valeur non nulle par le milieu extérieur. Un développement assez complexe permet d’énoncer les conditions qui déterminent l’existence d’un régime stationnaire (relations d’Onsager sur les coefficients Ljk) ainsi que le principe de production minimum d’entropie :

Dans un régime linéaire respectant les relations d’Onsager, la production interne d’entropie atteint une valeur minimum à l’état stationnaire de non équilibre.

image

Lars Onsager est un chimiste Norvégien du début du XXème siècle.

Un autre exemple : réaction chimique

Nous avons vu dans le post consacré à la thermodynamique des réactions chimiques que la production d’entropie d’une réaction chimique pouvait s’écrire en fonction de son affinité et de son degré d’avancement :

image

Ce qui peut s’écrire :

image

Nous avons vu également que la vitesse de réaction était la différence de la vitesse de réaction directe et de la vitesse de réaction inverse et que la valeur de l’affinité était également liée à ces deux vitesses :

image

Il vient :

image

A l’équilibre, l’affinité s’annule. Tant que A reste petit devant RT, il est possible de linéariser l’équation ci-dessus :

image

On se retrouve bien dans la configuration décrite dans le paragraphe précédent. A/T joue le rôle de la force thermodynamique et le flux est donné par la vitesse de réaction. Le coefficient de linéarité L est égal à Rdir,équ/R. (Rdir,équ est la vitesse de réaction directe à l’équilibre.)

L’approximation linéaire n’est légitime que dès lors que la valeur de l’affinité est petite devant RT qui vaut 2,5 kJ/mol. Cette valeur est dépassée couramment par de nombreuses réactions chimiques.

Stabilité loin de l’équilibre (régime non linéaire)

La linéarisation qui nous a permis d’établir le principe de production minimum d’entropie n’est possible qu’à proximité de l’équilibre. Elle n’est plus fondée dès lors qu’on s’en éloigne de manière significative. Dans ce cas, le régime stationnaire observé dès lors que les relations d’Onsager sont respectées peut devenir instable. La dynamique des processus irréversibles qui agissent au sein du système répond à des équations non linéaires qui peuvent admettre des solutions multiples qui sont autant d’états accessibles pour celui-ci. Il peut dès lors basculer dans l’un ou l’autre de ces états au gré des fluctuations auxquelles il est soumis.

Revenons à l’analyse de la production d’entropie au sein d’un système telle que nous l’avons présentée en début de ce post :

image

Les forces thermodynamiques et les flux ne sont pas nuls puisqu’on n’est pas à l’équilibre (premier terme du second membre de l’équation). La stabilité du régime est déterminée par le signe du second terme. Prenons le cas d‘une réaction autocatalytique (il existe de nombreuses réactions catalytiques ou autocatalytiques en chimie, et en particulier en biochimie) :

image

Les lois de la thermodynamique des réactions chimiques nous permettent d’écrire :

image

On va supposer que le milieu extérieur impose une condition de non-équilibre en alimentant en permanence le système avec le réactif Y et en maintenant la concentration en X. Dans le cas d’une perturbation delta_x, la dérivée temporelle du terme déterminant la stabilité s’écrit :

image

La production d’entropie en excès peut devenir négative, auquel cas le système devient instable. L’analyse détaillée de ce qui se passe alors est complexe et nous allons prendre un exemple plus simple pour illustrer la possibilité d’un basculement dans un état stationnaire loin de l’équilibre. Soit un processus quelconque dont la dynamique est gouvernée par l’équation siuvante :

image

Lorsque lambda est négatif, le seul régime d’équilibre correspond à x = 0. On vérifie que c’est un régime d’équilibre stable : une fluctuation delta_x régresse de manière exponentielle, qu’elle soit positive ou négative (régime symétrique). Par contre, si lambda est positif, ce régime devient instable. La moindre fluctuation est amplifiée, qu’elle soit dans un sens ou dans l’autre. Les seuls états stationnaires sont :

image

La symétrie est brisée et il n’est pas possible de déterminer a priori vers laquelle de ces deux solutions le système va converger. Tout dépend en effet du signe de la fluctuation (de nature a priori aléatoire) à laquelle il est soumis.

Le chimiste et physicien belge d’origine russe Ilya Prigogine a consacré une grande partie de ses travaux de recherche aux systèmes ouverts loin de l’équilibre. Il a reçu le prix Nobel en 1977 pour sa contribution à la thermodynamique hors équilibre et sa théorie des structures dissipatives. (Une structure dissipative est un système ouvert maintenu loin de l’équilibre thermodynamique par des forces thermodynamiques dues au milieu extérieur.)

Les grandes lignes de cette théorie sont les suivantes :

  • A proximité de l’équilibre, le système reste dans un régime stationnaire caractérisé par un écart à l’équilibre thermodynamique proportionnel à un vecteur de « distance à l’équilibre ». On dit de ce type de régime qu’il est linéaire, ou encore qu’il est sur la branche thermodynamique. Il conserve une partie des symétries de l’état d’équilibre thermodynamique.
  • Loin de l’équilibre, le régime stationnaire « linéaire » devient généralement instable.
  • Au-delà d’une certaine valeur critique, sous l’effet de fluctuations, le système peut basculer vers d’autres états stationnaires (phénomène de bifurcation). L’état vers lequel se produit la bifurcation ne peut pas être déterminé a priori puisqu’il dépend de fluctuations aléatoires.
  • Le système peut alors se trouver dans un état présentant un degré d’organisation plus élevé qui permet une meilleure circulation des flux en réponse aux forces thermodynamiques auxquelles il est soumis.

Remarque : le phénomène de bifurcation est courant en physique. IL suffit de penser aux changements d’état ou au passage du régime laminaire au régime turbulent en hydraulique.

Structures dissipatives et auto-organisation

Le point essentiel de la théorie de Prigogine est que ces états, qui sont moins symétriques que les états de la branche thermodynamique (notion de brisure de symétrie) présentent en général un degré d’organisation supérieur à celui des états de la branche thermodynamique. Ilya Prigogine a donné à ce type d’état le nom de structure dissipative. Plusieurs exemples illustrent cette théorie :

  • En dynamique des fluides, les cellules de Bénard sont des cellules de convexion qui apparaissent spontanément lorsqu’on applique une source de chaleur suffisamment puissante à un fluide. (Henri Bénard est un physicien français.) Les cyclones sont un autre exemple de structure dissipative. Ils apparaissent du fait de la différence de température entre la zone intertropicale et les pôles.
  • Les réactions BZ sont des réactions chimiques à caractère cyclique qui ont longtemps paru mystérieuses aux chimistes. C’est le biophysicien russe Boris Belousov qui les a mis en évidence en 1950 en faisant réagir des ions bromates avec de l’acide citrique en présence d’ions cériques, il constata que le mélange, au lieu de tendre tranquillement vers un état d’équilibre, se mettait à osciller, changeant périodiquement de couleur. Pour la petite histoire, lorsqu’il voulut publier ce résultat, son article fut refusé au motif que ce qu’il décrivait était contraire au deuxième principe de la thermodynamique. Découragé, Belousov abandonna ses travaux sur ce sujet et c’est un de ses collègues, Anatole Zabotinsky, qui étudia de plus près les réactions complexes qui étaient en jeu.
  • Le mathématicien de génie Alan Turing prédit en 1952 l’apparition spontanée de structures spatiales dans par réaction-diffusion. Ces structures, auxquelles on a donné le nom de structures de Turing, se traduisent par l’apparition de taches ou de zébrures à la surface du milieu dans lequel elles se développent.

Principe de production maximale d’entropie

Les travaux de Prigogine ont suscité un immense intérêt dans la communauté scientifique. Ils permettent d’expliquer l’apparition de certaines formes d’organisation de la matière (en particulier en biologie) hautement improbables si on s’en remet au seul hasard des rencontres entre molécules. De nombreux chercheurs, comme le physicien américain Lee Smolin, érigent en principe l’auto-organisation des systèmes ouverts loin de l’équilibre (self driven organization). Cette auto-organisation est en effet indispensable pour engendrer l’énergie libre qui entretient les processus irréversibles permettant la production d’entropie et, in fine, la circulation des flux.

image

Certains chercheurs vont plus loin et font remarquer que, dans la plupart des cas, les structures dissipatives qui apparaissent correspondent à un maximum de production d’entropie. Ils font de ce qui n’est pour le moment qu’une constatation, (la production maximale d’entropie : MEP, maximum entropy production) un potentiel troisième principe de la thermodynamique.

Il n’y a pas aujourd’hui de démonstration de ce « troisième principe ». Juste une intuition. Loin de l’équilibre, le système va tenter de réduire les potentiels thermodynamiques auxquels il est soumis en produisant de l’entropie. Ceux-ci étant « verrouillés » par le milieu extérieur, il va chercher à maximiser sa production d’entropie. Toute forme d’organisation qui va dans ce sens est donc privilégiée. De telles formes peuvent apparaitre du fait de l’instabilité des états de la branche thermodynamique qui favorise la croissance de fluctuations fortes. Dès lors que l’une de ces formes constitue un maximum local de la production d’entropie, elle peut donner lieu à un nouvel état stationnaire.

 

image

La figure ci-dessus illustre les trois régimes possibles. A l’équilibre, les flux s’annulent ainsi que la production d’entropie. Sur la branche thermodynamique, les flux ne sont plus nuls mais l’état stationnaire peut être déterminé à partir de l’état d’équilibre par une approximation linéaire. La production d’entropie est non nulle mais elle est minimale. Loin de l’équilibre, un état stationnaire est possible dès lors qu’il correspond à un maximum local de la production d’entropie. Le système cherche à évacuer un maximum d’entropie pour tenter de se rapprocher d’un état d’équilibre malgré les fortes contraintes qui maintiennent un fort déséquilibre.

 

Structures dissipatives et mémorisation

Un aspect de la théorie des structures dissipatives qui a été souligné par les successeurs d’Ilya Prigogine est la possibilité que celles-ci puissent être mémorisées. Le schéma d’organisation peut alors « re-servir ». L’apparition de structures dissipatives peut donc conduire à un stockage d’information : la pertinence du parallèle établi par Claude Shannon entre entropie et information trouve ici une confirmation aussi éclatante qu’inattendue ! 

Structures dissipatives et évolution

L’intérêt de cette approche est qu’elle apporte un éclairage tout à fait intéressant sur les processus qui conduisent à l’extraordinaire complexité du vivant. Les tenants du créationnisme font feu de tout bois pour combattre toute idée d’évolution et de sélection des espèces. A cet effet, ils brandissent comme une arme absolue le deuxième principe de la thermodynamique qui s’opposerait, selon eux, à une augmentation de la complexité. Leur raisonnement est erroné, puisqu’ils appliquent à tout système ce qui n’est applicable qu’à un système fermé. Il n’en reste pas moins que l’extraordinaire croissance de la complexité qui conduit à l’apparition de la vie a quelque chose de troublant. On conçoit difficilement qu’elle soit uniquement due au hasard des rencontres entre molécules, même si la vie a mis plusieurs milliards d’années pour apparaître.

La perspective change si l’on considère les cellules vivantes en tant que structures dissipatives. Et elles le sont en effet. Echangeant de la matière (ou de l’énergie pour les cellules photosynthétiques) avec l’environnement extérieur, loin de l’équilibre thermodynamique, elles sont le siège de réactions chimiques cycliques (en particulier le cycle ADP/ATP). Et ceci est possible parce qu’elles ont mémorisé des informations qui leur permettent de s’adapter à leur environnement (génome).

Elles sont par ailleurs bigrement efficaces en matière de dissipation d’énergie. Un homme de 70 kg dissipe au repos 1400 kcal/j, soit en moyenne 67 W. Le soleil, énorme structure dissipative de 2 1030 kg, produit quant à lui 3,8 1026 W. Rapporté à sa masse, c’est 5000 fois moins qu’un être humain ! L’être humain, en tant que structure dissipative, est donc incroyablement plus efficace que le soleil ! Si l’on tient pour avéré le principe de production maximale d’entropie, cela ramène le hasard à un rôle secondaire. Le principe de production maximale d’entropie aurait-il donné un sérieux coup de pouce à l’évolution ?

Prenons le cas des fumeurs noirs, ces cheminées hydrothermales très actives au fond des océans. Un fumeur noir dégage en continu du gaz à très haute température (350°C) chargé de composés chimiques très réactifs (H2S, NH3) et de minéraux. Une source d’énergie très active à proximité d’une immense source froide (l’océan), une alimentation en matière à fort potentiel chimique : l’endroit idéal pour voir apparaître des structures dissipatives. Les premières structures qui s’établissent à proximité d’un fumeur noir sont des structures convectives. Dans ces structures convectives d’autres structures plus complexes peuvent se développer. Les composés chimiques du gaz réagissent entre eux ou avec ceux préexistant dans le milieu environnant : minéraux (qui peuvent jouer le cas échéant le rôle de catalyseurs) ou molécules organiques (on sait maintenant que la Terre a pu être « ensemencée » par des acides aminés présents dans le milieu interstellaire). Ces réactions conduisent à la formation de molécules ou composés organiques plus complexes (amines, alcools, oses, composés organomagnésiens ou organophosphorés...). Dans un milieu à l’équilibre thermodynamique, ces réactions seraient réversibles mais la convection entraîne avec elle les composés ainsi formés. Ils seront, le cas échéant, recyclés pour former d’autres molécules ou macromolécules plus complexes.

Parmi ces molécules, certaines vont jouer un rôle particulier. Il s’agit des acides gras. Les acides gras sont des acides carboxyliques aliphatiques comportant au moins 14 atomes de carbone. Ils peuvent être produits de différentes façons et leur apparition dans le milieu environnant les fumeurs noirs n’a rien d’exceptionnel. La particularité des acides gras est qu’ils se regroupent dans l’eau pour former des membranes du fait de leur caractère amphiphile. Ces membranes peuvent former à leur tour des vésicules, vésicules qui sont perméables aux molécules de petite taille mais ne laissent pas passer les molécules plus complexes. Dans le milieu chimiquement très actif qui entoure les fumeurs noirs, ces vésicules sont donc amenées à grossir : les molécules de petite taille qui traversent la membrane se combinent à l’intérieur et former des composés de plus grande taille (comme des peptides) qui se retrouvent piégés ! Or la taille d’une telle vésicule est limitée par sa tension superficielle. Elle risque donc d’exploser mais sa plasticité fait qu’elle peut se diviser pour former deux vésicules « filles »...

Nota : les peptides sont des chaînes polymères d’acides aminés, acides aminés possiblement présents dans le milieu environnant. Les protéines sont des peptides de très grande taille.

On est encore loin de la division cellulaire : ce processus est passif et le contenant est réparti au hasard entre les deux vésicules filles. Mais on a franchi une marche dans l’échelle de la complexité. Il ne manque pas grand-chose pour créer des structures dissipatives efficaces. Ce « pas grand-chose », ce sont des catalyseurs organométalliques. Leur apparition au hasard des réactions au sein d’une vésicule est tout à fait probable puisque celle-ci sert de cocon dans lequel peuvent se former et croître des molécules complexes. L’importance de ces catalyseurs tient au fait qu’ils permettent la mise en place d’un processus autocatalytique, c’est-à-dire un processus capable de s’auto-reproduire. (On peut voir ces catalyseurs comme des précurseurs des enzymes.) Une nouvelle structure dissipative est née. Si le principe de MEP a une portée générale, comme l’espère ses promoteurs, elle pourrait croître en complexité pour améliorer son efficacité.

On est loin d’avoir résolu l’énigme de l’apparition de la vie, mais il semble que l’on ait ici l’amorce d’un scenario plausible. La suite du scenario n’est peut-être pas aussi difficile que cela à écrire. Si l’on considère que les aides aminés ont pu être apportés à la Terre depuis le milieu intersidéral (du moins pour les plus simples), la grande affaire de la vie semble avoir été l’invention des nucléotides. Elle les a ensuite utilisés à toutes les sauces : ADN/ARN (génome et traduction des gènes en protéines), ADP/ATP (cycle de production de l’énergie à l’intérieur des cellules), NAD+/NADH (coenzyme) et toutes ses variantes, ribonucléoprotéines (composés complexes associant ARN et protéines et jouant un rôle essentiel dans le fonctionnement des cellules)... On voit tout de suite ce que le rôle qu’une telle molécule, pour autant qu’elle soit elle-même issue d’un processus auto-catalytique, a pu jouer dans un processus de maximisation de la production d’entropie !

Nota : les nucléotides sont des molécules organiques résultant de l'assemblage d'un pentose (ribose C5H10O5 ou désoxyribose C5H10O4), d'une base azotée (pyrimidine C4H4N2 ou purine C5H4N4) et de un à trois groupes phosphates (H2PO4-). La base se substitue au groupe hydroxyle présent sur le carbone 1 du pentose et les groupes phosphates estérifient son carbone 5. Si la molécule obtenue est complexe ses composants élémentaires sont simples.

image

Affaire à suivre. La suite de l’histoire promet d’être passionnante.

 

Index