Entropie, désordre et complexité
La notion d’entropie a été définie en 1865 par Rudolf Clausius en s’appuyant sur les travaux de Nicolas Sadi Carnot. Elle permet de déterminer le sens dans lequel se font les transformations. Celui-ci en effet n’est pas déterminé par le premier principe. Celui-ci se contente de préciser que l’énergie libre gagnée ou perdue par un système lors d’une transformation doit être compensée par celle échangée avec l’extérieur. Dans le cas d’une transformation réversible, le sens est indifférent : elle peut se produire dans un sens ou dans l’autre. Lorsqu’elle est irréversible, ce n’est pas le cas. On a jamais vu un sucre dissous dans une tasse de café se reformer naturellement. Le second principe de la thermodynamique et la notion d’entropie permettent de résoudre cette indétermination.
Soit un système fermé. L’entropie de ce système est une fonction d’état S qui, lorsque ce système subit une transformation quelconque au cours de laquelle il reçoit la quantité de chaleur dQ, varie comme suit :

T étant la température à la surface du système (supposé à l’équilibre). Il y a égalité lorsque la transformation est réversible. Dans ce cas :

Par contre, si la transformation est irréversible l’égalité n’est plus respectée :

Pour mieux comprendre le sens de cette inégalité nous allons nous intéresser aux échanges entre le système et le milieu extérieur :

Le milieu extérieur est supposé n’être le siège d’aucune transformation irréversible, ce qui n’est pas forcément le cas du système :

Soit :

C’est très précisément l’énoncé du deuxième principe de la thermodynamique :
Toute transformation d'un système thermodynamique entraîne une augmentation de l'entropie globale (système + milieu extérieur).
Une transformation réversible du système se traduit par un simple transfert d’entropie depuis le milieu extérieur :

Lors d’une transformation irréversible, il y a au contraire création d’entropie (on parle aussi de production d’entropie) :

On peut réécrire cette équation de la manière suivante :

où deS est la variation d’entropie correspondant à l’apport de chaleur depuis le milieu extérieur (échange d’entropie) et diS la variation d’entropie consécutive à l’irréversibilité de la transformation (création – ou production - d’entropie).La quantité diS est toujours positive. Rudolf Clausius parle à ce sujet de chaleur non compensée.
Travail fourni par un système au milieu extérieur
Le deuxième principe de la thermodynamique a une conséquence immédiate pour les système fermés produisant du travail (dV > 0). Revenons à l’inégalité de Clausius :

Pour un même état final et un même état initial :

Donc :

Le travail fourni au milieu extérieur par le système est -W. Il vient :

Le travail fourni au milieu extérieur par un système fermé est maximum pour une transformation réversible.
Nous avons considéré jusqu’à maintenant un système fermé (sans échange de matière) :

Il est possible de généraliser le concept à un système ouvert. Il convient dans ce cas de tenir compte de l’entropie de la matière échangée :

L’énergie libre de Helmoltz est une fonction d’état qui quantifie le travail que peut fournir un système fermé au cours d’une transformation réversible à température constante :

dW’ étant le travail autre que le travail de compression du gaz. Comme dQ = TdeS, il vient :

Si la transformation est réversible, la variation de F correspond bien au travail fourni par le système. Dans le cas général :

W étant le travail des seules forces de pression. A volume constant et travail W’ nul, DeltaF est inférieur ou égal à zéro (diminution de l’énergie interne). La transformation conduit à une diminution de l’énergie libre du système. Si de plus la transformation est isotherme, elle conduit à un minimum de l’énergie interne F :

Enthalpie libre (énergie libre de Gibbs)
L’enthalpie libre est une fonction d’état qui est définie comme suit :

Dans le cas d’un système fermé à pression et température constantes :

Comme dU = dQ -pdV, il vient :

Comme on l’a vu, dQ = TdeS, on peut donc écrire :

G peut être vu comme un potentiel thermodynamique qui évolue nécessairement vers un minimum lors d’une transformation irréversible du système. L’enthalpie libre est surtout utilisée pour caractériser l’évolution des réactions chimiques à température et pression constantes, c’est-à-dire la plupart des réactions chimiques.
Interprétation statistique de l'entropie
La nature de l’entropie est longtemps restée mystérieuse pour les physiciens. Certes, il s’agit d’une variable d’état mais à quelle réalité physique correspond-elle ? A la fin du XIXème siècle, Ludwig Boltzmann va donner une explication statistique à la notion d’entropie. Les travaux de Boltzmann sont révolutionnaires. Seul Maxwell avait eu l’intuition de l’importance qu’allait prendre la statistique et les probabilités en physique. Sa mort précoce va priver Boltzmann d’un soutien de poids. Les théories de Boltzmann seront en effet vigoureusement combattues par les tenants de l’énergétisme, une théorie physique en vogue à l’époque. Il faudra attendre le début du XXème siècle pour que le débat soit définitivement tranché en faveur des idées de Boltzmann.
Attardons-nous quelques instants sur l’interprétation de Boltzmann. Il n'est pas nécessaire, pour décrire un système, d'avoir une information précise sur tous ses éléments. Un gaz à l'équilibre dans une cavité fermée peut être caractérisé par sa température et sa pression. Pourtant, à l'échelle microscopique, il est constitué de n molécules qui ont chacune une position différente et une quantité de mouvement différente. Pour décrire tous les états possibles du gaz à l’échelle microscopique (ce que l'on qualifie de micro-états), nous avons besoin d’un espace vectoriel à 6n dimensions. En effet, chaque molécule de ce gaz peut avoir une position quelconque dans un volume à 3 dimensions et sa vitesse prend également ses valeurs dans un espace à 3 dimensions. Il faut donc 6 coordonnées pour décrire complètement une seule particule du gaz. Un micro-état est bien un point dans un espace à 6n dimensions ! On donne le nom d’espace des configurations à cet espace.
Considérons par exemple une enceinte hermétique contenant un litre de gaz. Dans un litre de gaz à la température ambiante et à la pression atmosphérique, l’ordre de grandeur du nombre de particules est de 10 à la puissance 23 (nombre d’Avogadro). Quant au nombre de positions possibles pour chaque molécule dans l’enceinte considérée, il est tout aussi astronomique : on peut en avoir une idée approchée en faisant le rapport entre le volume de l’enceinte et le volume minimum occupé par une particule... Même remarque pour le nombre de configurations en termes de vitesses. Le nombre de micro-états possibles qui en résulte est tout simplement faramineux ! Si à un même état du gaz peut correspondre un nombre aussi extraordinairement élevé de micro-états on comprend mieux pourquoi il est nécessaire d’avoir recours à une approche statistique pour traiter son évolution à l’échelle macroscopique.
C’est en partant de cette constatation que Boltzmann a entrepris de réinterpréter la notion d’entropie. L’équation de Boltzmann fait le lien entre la valeur de l’entropie et le nombre de micro-états qui conduisent à un même état macroscopique (c’est-à-dire à un état macroscopique ayant les mêmes propriétés thermodynamiques) :

Dans cette équation, S est l’entropie, W le nombre de micro-états et k une constante que l’on a appelée par la suite constante de Boltzmann. Lorsque l’espace des configurations est continu (c’est-à-dire lorsque les paramètres décrivant les micro-états peuvent varier de façon continue) l’entropie s’exprime en fonction du volume occupé par l’ensemble de ces micro-états dans l’espace des configurations (un volume à 6n dimensions).
Plus l’entropie que l’on attribue à un état macroscopique donné est élevée, plus le nombre de micro-états qui correspondent à un tel état est important. En l’absence de toute contrainte, plus la probabilité que le système se trouve dans cet état est élevée. En effet, en dehors de toute contrainte, un système va naturellement vers l’état le plus probable. Or l’état le plus probable est l’état auquel est associé le plus grand nombre de micro-états, donc celui qui a la plus grande entropie. CQFD. En dehors de toute contrainte : cette précision a son importance et nous y reviendrons plus tard.
Revenons à notre enceinte hermétique. Supposons qu’on y introduise une fiole contenant l’équivalent d’un litre de gaz sous pression et que l’on ouvre cette fiole une fois dans l’enceinte. Que va-t-il se passer ? Le gaz va s’échapper de la fiole et se répartir dans l’enceinte. Résumons. On part d’une situation dans laquelle les molécules sont confinées dans un volume v1 et on aboutit à une situation où elles occupent un volume plus grand v2. Si on fait abstraction de la vitesse des molécules (on suppose que l’on attend suffisamment longtemps pour que la température soit identique avant et après), le volume occupé au sein de l’espace des configurations est multiplié par un facteur v2/v1 à la puissance 23. En termes d’entropie, cela s’écrit comme suit :

L’entropie a donc considérablement augmenté. L’état macroscopique correspondant à l’occupation de la totalité de l’enceinte est infiniment plus probable que l’état dans lequel toutes les molécules du gaz resteraient bien sagement dans la fiole une fois qu’elle a été débouchée. Le passage de l’état 1 à l’état 2 est hautement probable, le passage de l’état 2 l’état 1 hautement improbable.
Entropie et théorie de l’information
La théorie de l’information a été développée par Claude Shannon au début des années 1950. Il est apparu très rapidement des similitudes entre la quantité d’information que l’on souhaite transmettre au travers d’un canal et l’entropie telle qu’elle a été définie par Boltzmann : similitude sur le plan des formules mais également du point de vue de l’interprétation. Un système thermodynamique à forte entropie n’est-il pas un système cachant une grande quantité d’information, celle qui décrit les innombrables micro-états équivalents sur le plan macroscopique qui peuvent constituer ce système ? Si l’on adopte ce point de vue, l’entropie mesure la quantité d’information dont on peut se passer pour décrire le système.
On associe souvent la notion d’entropie à celle de désordre. Le parallèle n’est pas faux. Prenons l’exemple d’un morceau de sucre qu’on laisse dissoudre dans une tasse de café. A l’origine, les molécules qui constituent le sucre sont, d’une certaine manière, ordonnées. A l’échelle microscopique les molécules sous regroupées sous forme de cristaux et à l’échelle macroscopique ces cristaux sont agglomérés dans un parallélépipède. Au bout de quelques minutes, elles sont réparties uniformément dans le café… L’entropie du système "café + sucre" a augmenté et il est vrai que les molécules de sucre sont maintenant dispersées dans le plus grand désordre. Attention cependant à ne pas résumer le second principe à une simple croissance inexorable du désordre comme on le fait trop souvent...
Remarque : les molécules de sucre se retrouvent dans le même état de désordre que les molécules qui constituent le café. On dit qu’il y a équipartition de l’énergie. C’est l’application d’un théorème très général en thermodynamique.
Le raccourci entre entropie et désordre s'appuie sur une interprétation erronée du second principe de la thermodynamique. Celui-ci n'interdit pas toute forme d'organisation. Le monde qui nous entoure est là pour nous le rappeler. Chaque année, nous assistons à la renaissance de la végétation. La croissance de l'embryon dans la ventre de sa mère conduit à une extraordinaire différenciation des organes... et il nous est possible de faire des glaçons pour l’apéro dans notre réfrigérateur. Rappelons d’ailleurs que ce principe a été établi par des scientifiques qui étudiaient le fonctionnement des machines thermiques, machines dont la fonction est d'aider les hommes à créer des objets complexes. Si ce principe interdisait l'apparition de la complexité, cela se saurait et ni Carnot ni Clausius n'auraient eu l’idée saugrenue d'établir un tel principe.
Entropie et complexité
Le raccourci entre entropie et désordre provient d’une extrapolation hâtive faite à partir de cas particuliers comme ceux exposés plus haut : le sucre dans le café, la fiole de gaz dans une enceinte. Mais n’importe quelle interaction peut conduire à l’association de deux éléments sans pour autant violer le second principe de la thermodynamique. Celui-ci ne s’oppose pas aux lois de la physique, même si ces lois conduisent localement à un comportement qui augmente le degré d’organisation de la matière. Le physicien et chimiste belge d'origine russe Ilya Prigogine a formulé un cadre théorique très élégant dans lequel on peut conceptualiser l'aliance entre deuxième principe de la thermodynamique et croissance de la complexité. Ce cadre s'appuie sur les travaux qui'il a menés sur les systèmes hors équilibre thermodynamique, c'est à dire les systèmes contraint par une "force thermodynamique" à demeurer loin de l'équilibre (Ilya Prigogine a reçu le prix Nobel en 1977). Le système répond à cette contrainte par une certaine forme d'auto-organisation qui permet d'entretenir un "flux d'entropie".
Structures dissipatives
Les travaux de Prigogine portent sur ce qu'il a appelé des structures dissipatives (voir le post à ce sujet). Dans un système à l'équilbre thermodynamique, l'énergie est équirépartie entre les différents degrés de liberté. Ceci conduit à un milieu homogène. L'apparition d'une simple fluctuation écarte temporairement le système de son point d'équilibre mais il y revient naturellement après un temps plus ou moins long de relaxation. Supposons maintenant que l'on perturbe de façon durable l'équiibre en soumettant le milieu à une force extérieure qui crée un gradient à l'intérieur de celui-ci (gradient de température, gradient de densité, de concentration, tension électrique, champ magnétique... ou combinaison de plusieurs effets simultanés). Il n'y a plus d'équilibre thermodynamique possible. On constate par contre que le système va se placer le plus souvent dans un état stationnaire, état caractérisé par une certaine forme d'organisation tout à fait inattendue. Tout se passe comme si le système, contraint par une force extérieure à laisser passer un flux (d'énergie ou de de matière), adoptait la configuration lui permettant de "faciliter au maximum" le passage de ce flux, ce qui le conduit à maximiser son énergie libre. Ceci amène une certaine forme de complexification, complexification dont la seule "justification" est qu'elle permet à des réactions de se manifester qui ne se produisent pas naturellement à l'équilibre. Ce sont ces réactions qui facilitent le passage du flux.
Remarque : dans une certaine mesure, c’est la confrontation entre le second principe de la thermodynamique (et en particulier son caractère aléatoire) et les différentes interactions de la physique qui permet à une certaine forme d’organisation de la matière de se mettre en place. L’effet de ces interactions se traduit le plus souvent par l’existence de puits de potentiel et l’agitation permanentes des particules à l’échelle microscopique (pour ne pas dire quantique) les conduit « tomber » dans ces puits. Si la nouvelle configuration ainsi créée permet de maximiser le flux qui traverse le sustème, elle a toutes les chances d'être conservée. La complexité peut ainsi se construire ainsi par degrés successifs : des quarks aux noyaux (potentiel de l’interaction forte), des noyaux aux atomes et des atomes aux molécules (potentiel électrostatique), des molécules aux composés chimiques (potentiel chimique)… Ce processus s’oppose à l’uniformisation qui pourrait résulter de l’application du second principe (on parle de mort thermique pour caractériser un univers dans lequel règne un désordre maximum).
Maximum Entropy Production (MEP)
Il n'y a cependant pas d'automatisme dans l'enchaînement des événements. C'est le hasard des fluctuations qui conduit le système à trouver la solution, ou plutôt à trouver une solution car il peut en exister plusieurs. Ilya Prigogine parle à ce sujet de bifurcations. Ces bifurcations, si elles sont le fruit du hasard, sont filles d'un hasard très orienté. Le physisien américain Lee Smolin évoque même la possibilité d'un troisième principe , le principe de self driven organisation. D'autres parlent de principe de MEP (maximum entropy production). La diminution d'entropie de l'entropie d'une partie du système qui résulte de sa complexification est compensée par une augmentation continue de l'entropie externe, d'où cette notion de production d'entropie par le système :

Le passage d'un flux maximum conduit dans ces conditions à une production renforcée d'entropie...
Ce qui est intéressant dans cette approche, c'est qu'elle permet de comprendre comment le système considéré peut atteindre rapidement un niveau de complexité difficilement explicable par un simple jeu de hasard non orienté (et qui aurait tendance à défaire les structures complexes aussi vite qu'elles auraient été créées). Le système constitué par la surface de la Terre (en incluant une mince couche du sol) et son atmosphère est un exemple parfait de l’application de ce principe (nous l'appellerons par commodité surface terrestre). Il est traversé par un énorme flux d’énergie :
- Il reçoit les rayons du soleil et la chaleur produite par le manteau et le noyau (radioactivité et cristallisation du noyau).
- Il réémet un rayonnement infrarouge.
A énergie égale, l'entropie exportée grâce au rayonnement infra-rouge est de loin supérieure à celle importée du fait des rayons du Soleil et de l'énergie interne de la Terre. Il y a tout simplement beaucoup plus de photons infrarouges émis que de photons ou de phonons entrants. Or les processus du vivant sont beaucoup plus efficaces à absorber le flux qui travers le système surface terrestre et à le transformer en une myriade de photons infra-rouges (donc à produire de l'entropie) que la simple combinaison réflexion des rayons/rayonneent infrarouge des minéraux !

