circles
Un des faits les mieux établis en thermodynamique est qu'il est impossible, dans un système enclos dans une enveloppe qui ne permet ni changement de volume ni passage de chaleur, et dans lequel la température et la pression sont partout les mêmes, de produire une quelconque inégalité de température ou de pression sans la dépense de travail. C'est la deuxième loi de la thermodynamique, et c'est sans doute vrai tant que nous ne pouvons traiter les corps que dans leur ensemble, et que nous n'avons pas le pouvoir de percevoir ou de manipuler les molécules individuelles qui les composent. Mais si nous concevons un être dont les facultés sont si aiguisées qu'il peut suivre chaque molécule dans son parcours, un tel être, dont les attributs sont aussi essentiellement limités que les nôtres, serait capable de faire ce qui nous est actuellement impossible. Car nous avons vu que les molécules dans un récipient rempli d'air à température uniforme se déplacent à des vitesses qui ne sont nullement uniformes, bien que la vitesse moyenne d'un grand nombre d'entre elles, choisies arbitrairement, soit presque exactement uniforme. Supposons maintenant qu'un tel récipient soit divisé en deux parties, A et B, par une division dans laquelle se trouve un petit trou, et qu'un être, qui peut voir les molécules individuelles, ouvre et ferme ce trou, de manière à ne permettre qu'aux molécules les plus rapides de passer de A à B, et qu'aux plus lentes de passer de B à A. Il va alors, sans dépense de travail, augmenter la température de B et diminuer celle de A, en contradiction avec la deuxième loi de la thermodynamique.

Theorie de la Chaleur
James Clerk MAXWELL


Thèmes

Information et Énergie

La physique contemporaine accepte sans difficultés que l’information est une catégorie du réel. Il n'en est pas du tout de même en dehors de cette discipline, et l'on trouve encore en biologie bien des penseurs qui n'arrivent pas à accepter ce changement de perspective. Pourtant ce fait a été établi par des chercheurs qui ont par exemple réussi à convertir de l'information en énergie. Parmi les nombreuses expériences de pensée qui ont conduit à introduire l'information comme authentique catégorie ("Information is physical" était un leitmotif de Rolf Landauer), un dispositif mécanique imaginaire inventé par James Clerk Maxwell joue un rôle central (voir la citation de sa vision dans le panneau latéral de gauche). Pour des compléments, voir fabriquer une bactérie comme un ordinateur, saurons-nous construire une bactérie synthétique ?, les gènes du démon de Maxwell : est-il possible de construire une usine cellulaire ? et la page miroir en anglais, avec une exploration exaustive des fonctions minimales nécessaires pour permettre à une cellule de vivre de façon autonome, qui montrent la présence de plusieurs dizaines de démons de Maxwell. Ces agents particuliers sont ce qui donne à la vie son caractère « animé ».

Au cours de discussions avec les étudiants qui assistaient à mes cours, et dans une série de conférences où j'ai parlé du démon de Maxwell, pensant qu'il s'agissait d'une expérience de pensée familière à mon public, j'ai eu la surprise de constater que la plus grande partie de l’audience ne connaissait pas cet agent original. Voici donc un bref résumé de son histoire mouvementée, loin d'être terminée (voir par exemple Information Processing and Thermodynamic Entropy).

Alors que, de l'Antiquité au Moyen Âge la Nature a été décrite au moyen de dix catégories de base : οὐσία, προσότης, ποιότης, πρός τι, κεῖσθαι, ἔξις, τόπος, χρόνος, πράττειν, παθεῖ, ou en latin : essentia, quantitas, qualitas, ad aliquid, situs, habitus, locus, tempus, agere, pati, une étape essentielle dans la compréhension de la Νature a consisté à établir peu à peu les règles de l'intrication de ces catégories, processus qui les a progressivement réduites à quatre : masse, espace, temps, et par la suite, énergie. Un progrès remarquable a été atteint lorsqu'on a réussi, à la suite des travaux de Poincaré et d'Einstein, à les combiner en une équation étonnamment concise, E = mc2. Pourtant, il était évident que ces catégories universelles ne tiennent pas compte de nombreux phénomènes : personne n'a encore pu, pour l'instant, calculer le réseau cristallin d'un minéral aussi simple que le chlorure de sodium à partir des seules équations de la physique microscopique. Au surplus, plusieurs caractéristiques des anciennes catégories ne sont pas de simples dérivations des quatre catégories admises jusqu'au début du XXe siècle : qualitas (qualité), ad aliquid (relations), situs et habitus (positionnement dans l'espace-temps) en particulier ne sont pas des conséquences immédiates des catégories : masse, énergie, espace ou temps.

Les trois premières sont assez faciles à comprendre intuitivement (encore que la question se pose de la différence entre masse et inertie). L'énergie est plus compliquée. En effet, elle est associée à une grande variété de connotations, souvent avec une dimension psychologique. On le voit dans les expériences de Messmer, et la façon dont elles sont rapportées par un auteur comme Balzac, dans Ursule Mirouët où il en fait l'éloge comme celui de la phrénologie, et avec les mêmes incantations que ce qu'on trouve encore aujourd'hui dans la parapsychologie et les fadaises du même tonneau: « Quelques gens droits, sans système, convaincus par des faits consciencieusement étudiés, persévérèrent dans la doctrine de Mesmer, qui reconnaissait en l’homme l’existence d’une influence pénétrante, dominatrice d’homme à homme, mise en œuvre par la volonté, curative par l’abondance du fluide, et dont le jeu constitue un duel entre deux volontés, entre un mal à guérir et le vouloir de guérir. Les phénomènes du somnambulisme, à peine soupçonnés par Mesmer, furent dus à messieurs de Puységur et Deleuze ; mais la révolution mit à ces découvertes un temps d’arrêt qui donna gain de cause aux savants et aux railleurs. Parmi le petit nombre des croyants se trouvèrent des médecins. »

En général, on comprend que l'énergie est impliquée dans la production de travail. Un moteur de voiture consomme de l'énergie. Pendant toute la durée du XIXe siècle, à la naissance du monde industriel, les savants et les ingénieurs se sont interrogés sur la façon dont l'énergie pourrait être disponible pour produire du travail. Sadi Carnot, le premier, a montré que, en fait, lors de la construction d'une machine à vapeur, l'énergie a dû être scindée en deux parties, de l'énergie utilisable, qui a produit du travail, et une autre partie, qui a été intimement liée à la température du système. et n'a pas pu être utilisée pour produire du travail [Carnot, 1824]. En effet, les machines à vapeur nécessitent la présence de deux sources de température, et le travail a été produit quand un fluide (la vapeur d'eau) passe de la partie chaude de la machine à sa partie froide.

En 1850, Rudolf Clausius reprend l’étude de Carnot et commence à la formaliser. Et en 1865, il propose de nommer Entropie, associée à la température, la partie de l'énergie qui ne peut être transformée en travail [Clausius, 1865]. Créé à partir d'une racine grecque, comme tous les néologismes corrects en science,  le mot entropie exprime l'idée d'une métamorphose interne du système étudié (ἐν: à l'intérieur, et τροπεῖν: changer, modifier, convertir, transformer, se métamorphoser), ou Verwandlung en allemand.

Plus tard, James Clerk Maxwell, dans sa Théorie de la chaleur, analyse comment le processus est lié au deuxième principe de la thermoyphysique, qui stipule que dans un système matériel fermé la température tend à devenir uniforme [Maxwell, 1871, 1891]. Pour cela, il fallait réintroduire l'idée d’une « théorie moléculaire de la matière », où le mouvement est central : "L'opinion que les propriétés observées de corps visibles apparemment au repos sont dues à l'action de molécules invisibles en mouvement rapide se trouve déjà chez Lucrèce. Daniel Bernoulli a été le premier à suggérer que la pression de l'air est due à l'impact de ses particules sur les parois du vase qui le contient ; mais il a fait très peu de progrès dans la théorie qui, selon lui Lesage et Prévost de Genève, et ensuite Herapath dans sa «Physique Mathématique»  fait plusieurs applications importantes de la théorie. Krönig également a attiré l'attention sur cette explication du phénomène de l'état gazeux. C'est au professeur à Clausius, cependant, que nous devons le développement récent de la théorie dynamique des gaz." Dans un gaz, cela signifie en effet que si l'on part d'une répartition dissymétrique, avec les molécules du gaz chaud dans un compartiment, et les molécules du gaz froid dans le compartiment contigu, le système va évoluer de telle sorte que la température devienne la température moyenne après un certain temps. La température mesure ici le degré d'agitation des molécules du gaz : rapide pour la partie chaude, lente pour la partie froide. Ce passage d'une description continue de la matière à une vue discontinue, comme le proposaient les atomistes, a été plus tard étendu à la biologie avec la naissance de la biologie moléculaire. Il est intéressant de noter que cela n'a pas été immédiat, et a pris environ un siècle. Et la situation actuelle, où "l'information" gagne lentement du terrain, répète ce même trajet progressif — et lent — du savoir.

Pour créer un lien entre l'information et l'entropie, Maxwell a inventé un agent hypothétique, un « démon », qui utilise son aptitude à traiter de l'information en la mémorisant afin de réduire l'entropie d'un gaz homogène (à un température donnée). En bref, le démon est capable de mesurer la vitesse des molécules de gaz et ouvrir ou fermer un clapet entre les deux compartiments en fonction de la vitesse des molécules, les maintenant d'un côté si elles vont vite, et de l'autre côté, si elles sont lentes. Cette action va construire deux compartiments, l'un chaud et l'autre froid, et inverser le temps, agissant apparemment contre le second principe de la thermophysique. Beaucoup de travaux ont été développés depuis cette première vision, et, afin d'éviter le paradoxe de l'inversion du deuxième principe, Leo Szilard a avancé l'idée que la création d'information requiert de l'énergie pour tenir compte de la façon dont le démon de Maxwell pourrait agir [Szilard, 1929].

maxwell

La physique du traitement de l'information a conduit depuis cette réflexion originale à un nombre considérable de tentatives pour comprendre comment le démon de Maxwell pourrait fonctionner concrètement. Le rôle de la thermodynamique dans le calcul a été examiné à plusieurs reprises au cours du dernier siècle, et plus spécialement depuis une cinquantaine d'années. Une des contributions les plus importantes a été celle de Marian Smoluchowski, professeur à l'université Jagiellone à Cracovie. Lors d'une conférence à Göttingen, où assistaient les physiciens et les mathématiciens les plus créatifs de l'époque, Smoluchowski a détaillé la façon dont le démon de Maxwell peut être implémenté au moyen d'une trappe, qui permet de coupler l'information à la disponibilité des états d'énergie et d'espace des molécules de l'environnement [Smoluchowski, 1914].

Quinze ans plus tard, Szilard a proposé, d'une façon plus intuitive qu'explicite, une relation entre l'information et l'entropie, et von Neumann dans les années 1950 lui a emboîté le pas, en proposant que chaque opération logique effectuée dans un ordinateur à la température T doit utiliser un quantum d'énergie de kTln2, ce qui augmente l'entropie de kln2 [voir von Neumann, 1966]. Cette façon de voir est restée l'intuition acceptée par la majorité (et c'est vrai de nos jours encore, en dehors des spécialistes de la théorie de l'information) jusqu'à ce que la société IBM, concernée directement par les limites que cette contrainte physique, si elle était vérifiée, imposerait au calcul, ait demandé à ses ingénieurs d'étudier la situation et, éventuellement, de proposer des remèdes.

Heureusement pour l'informatique (vous ne pourriez pas travailler sur la machine que vous utilisez en ce moment-même si cela avait reflété la réalité), cette intuition s'est révélée fausse. Travaillant chez IBM sur les limites physiques du calcul-—qui auraient été atteintes rapidement si l'intuition de Szilard-von Neumann avait été validée, Rolf Landauer a démontré que tout calcul peut être réalisé de façon réversible, et par conséquent sans consommer d'énergie [Landauer, 1961].

Pour comprendre la signification de cette affirmation contre-intuitive, résumons la base de tous les calculs et de la logique. Trois opérations booléennes, ET, NON et REPLIQUER  suffisent pour permettre toutes les opérations logiques. L'opération ET est l'intersection (la multiplication) booléenne, comme nous l'avons appris à l'école : cette opération, à partir de deux entrées binaires X et Y, renvoie la sortie 1 si et seulement si X et Y valent ; sinon elle retourne la sortie 0. De même, NON, à partir d'une entrée binaire X retourne la sortie 1 si X = 0 et 0 si X = 1. REPLIQUER, enfin, prend une entrée binaire X et retourne deux sorties binaires, chacune égale à X. Toute fonction booléenne peut être construite par l'application répétée de ET, NON et REPLIQUER.

Enfin, une autre opération, dérivée de celles-ci, EFFACER (ou plutôt RESET, réinitialiser), est essentielle pour notre sujet. EFFACER est une opération à un bit logique qui à toute valeur binaire, 0 ou 1, retourne 0. Concrètement, ces opérations sont mises en œuvre dans des «portes logiques». Une porte logique est un dispositif physique qui effectue une opération logique. Les microprocesseurs combinent des millions, voire des milliards de portes logiques pour effectuer les opérations logiques complexes que vous trouvez dans les ordinateurs comme celui que vous utilisez pour lire ce texte.

Landauer a montré que les opérations logiques biunivoques, telles que NON, peuvent être réalisées sans consommation d'énergie. Il a également montré que les opérations irréversibles, plusieurs-vers-un comme RAZ (RESET) nécessitent la consommation d'au moins kTln2 pour chaque bit d'information perdu. Le cœur de l'argument de Landauer peut être facilement compris. En bref, quand on l'efface, l'information doit bien aller quelque part. Il n'y a que deux voies possibles : soit elle se déplace vers une partie de l'ordinateur (ou de la cellule, si l'on considère la cellule comme un ordinateur) dont les éléments ont des degrés de liberté observables, et c'est alors une autre forme de sa mémoire. Mais cela implique alors qu'elle n'a pas été effacée, mais simplement déplacée ; soit elle se fond dans un ensemble d'entités formées de degrés de liberté non observables, comme le mouvement microscopique des molécules, mais cela se traduit alors par une augmentation de l'entropie d'au moins kln2. En termes énergétiques RAZ (RESET) implique la deuxième partie de l'alternative (effacer un bit consomme kTln2).

Cette démonstration n'est pas qu'une simple prouesse théorique. D'ailleurs plusieurs expériences récentes sont venues valider le «principe de Landauer» [Jun et collègues, 2014]. En parallèle, Landauer est aussi le père d'une technologie mise en œuvre pour construire de vrais microprocesseurs et des circuits électroniques concrets basés sur la logique du calcul réversible. La plupart des microprocesseurs rapides sont construits selon se schéma et réduisent considérablement le gaspillage d'énergie auquel conduisaient les circuits plus conventionnels.

En 1973, Charles Bennett a étendu le théorème de Landauer, et montré que tout calcul peut être effectué en utilisant uniquement des opérations logiques réversibles, sans exiger la consommation d'énergie, par conséquent [Bennett, 1973, 1988]. Suivons le chemin de l'énergie dans une opération de ce type. Pour mettre en route une opération logique, on commence par extraire de l'énergie à partir d'une réserve d'énergie libre. On l'utilise dans le processeur qui exécute l'opération, mais on termine l'opération en la restituant à sa source une fois que le calcul (réversible) a été effectué. Notons ici que d'habitude dans les ordinateurs la réserve d'énergie est une batterie ou une alimentation électrique, alors que dans la cellule l'énergie est répartie dans l'ensemble de la cellule. Cela a des conséquences pratiques et conceptuelles importantes qui ne sont pas discutées ici. La propriété de réversibilité a été mise en œuvre dans les ordinateurs sous le nom de « logique adiabatique », et des circuits concrets ont été décrits en détail pour expliquer comment cela fonctionne [Younis et Knight, 1994]. Dans le domaine de la Biologie Synthétique, il est amusant de noter que Tom Knight, l'un des fondateurs du programme iGEM au MIT, a été l'un des auteurs déterminants du développement de ce travail d'ingénierie informatique (logique adiabatique). Ainsi — on l'ignore souvent — le lien entre théorie de l'information, informatique et sciences de la vie est bien plus profond que ce que les profanes (et de nombreux biologistes) aimeraient penser.

Revenons au démon de Maxwell : Dans un vrai calcul, des erreurs se produisent nécessairement, et pour se débarrasser des erreurs, il faut réaliser une opération irréversible, l'effacement des informations erronées et leur remplacement par des informations correctes. Par conséquent, rétablir la situation sans erreur se traduira par la consommation d'énergie. S'il n'y avait pas consommation d'énergie, le système serait en mesure de retourner le temps. Comment cela fonctionne-t-il dans la réalité? La situation est semblable à celle de l'action du démon de Maxwell : mesurer, enregistrer une information, l'utiliser via la réplication de la mesure, rétablir l'état initial, puis effacer la mémoire, et enfin réinitialiser l'état initial du démon. On trouve au centre de cette action les deux processus logiques, REPLIQUER et RAZ.

Par exemple, si le taux d'erreur est de x bits par seconde, le processus de correction d'erreurs peut être utilisé pour les détecter et les rejeter dans l'environnement à un coût énergétique de x kT ln2 Joule par seconde, où T est la température de l'environnement. En fait, les processus biologiques, même à l'échelle microscopique, ne mettent pas en jeu un très petit nombre d'unités d'information, mais sont plutôt très redondants et modifient simultanément un grand nombre de bits. C'est parce qu'à 300K, la température moyenne du milieu de vie, le bruit thermique est assez grand pour que la redondance soit nécessaire pour augmenter suffisamment le rapport signal / bruit et distinguer ce qui est pertinent de ce qui ne l'est pas. Et l'habituel « quantum » d'énergie utilisée est celui de l'hydrolyse d'une liaison phosphate « riche en énergie », généralement l’hydrolyse de l'ATP en l'ADP ou du GTP en GDP.

Bien que ce type de processus n'ait pas été explicitement présenté comme illustration concrète du démon de Maxwell, nous trouvons un grand nombre d'exemples illustrant des comportements qui y ressemblent à s'y méprendre. John Hopfield a suggéré que pour identifier les fonctions de relecture de processus biologiques importants, nous devrions explorer toutes "les réactions connues qui, par certains aspects, semblent être des complications inutiles ou même nuisibles", par exemple parce qu’elles utilisent de l’énergie en apparence sans raison. Et en effet, au cours de traduction des protéines, une étape de correction des erreurs utilise la protéine EF-Tu liée à un ARN de transfert chargé par son acide aminé, et teste si l'ARNt peut lire correctement le codon disponible immédiatement après l'ARNt qui porte le polypeptide. Cette étape, qui est typiquement du ressort de la mise en œuvre d'un code d'erreurs, hydrolyse une molécule de GTP lorsque la bonne association a été trouvée, agissant ainsi exactement comme le ferait un démon de Maxwell [Hopfield, 1974]. Nous pouvons noter ici que cela donne une raison importante au fait que les cellules possédent dans leur matière-même une réserve d'énergie (présente dans les liaisons covalentes qui constituent l'épine dorsale des macromolécules, en thioesters et en liaisons phosphate). On pourrait trouver là un rôle supplémentaire à la longueur explétive de l'ADN dans de nombreux génomes. Par ailleurs cela rend évidemment impossible que l'arsenic puisse appartenir au squelette riche en énergie des acides nucléiques, contrairement à ce qu'a pu faire croire un battage médiatique récent.

Ces routines de correction d'erreurs sont la norme dans les processus biologiques, et fonctionnent de façon analogue au démon de Maxwell, extrayant l'information pour l'utiliser et réduire l'entropie locale à un coût énergétique de kT ln2 joules par bit, en rejetant systématiquement les erreurs dans l'environnement afin de maintenir un fonctionnement fiable de la cellule.

Références

Bennett, C (1973) Logical reversibility of computation. IBM Journal of research and development 17, 525-532.

Bennett, C (1988) Notes on the history of reversible computation. IBM Journal of research and development 44, 270-277.

Carnot, S (1824) Réflexions sur la puissance motrice du feu et sur les machines propres à développer cette puissance (Bachelier, Paris)

Clausius, R (1850) Über die bewegende Kraft der Wärme und die Gesetze, welche sich daraus für die Wärmelehre selbst ableiten lassen. Annalen der Physik 155, 368-397

Clausius, R (1865) Über verschiedene für die Anwendung bequeme Formen der Hauptgleichungen der mechanischen Wärmetheorie. Annalen der Physik 201, 353-400

Hopfield JJ (1974) Kinetic proofreading: a new mechanism for reducing errors in biosynthetic processes requiring high specificity. Proc Natl Acad Sci U S A 71:4135-4139.

Jun Y, Gavrilov M, Bechhoefer J (2014) High-precision test of Landauer's principle in a feedback trap. Phys Rev Lett. 2014 Nov 7;113:190601.

Landauer, R (1961) Irreversibility and heat generation in the computing process. IBM Journal of research and development 1961, 3, 184-191.

Maxwell, JC (1871, nouvelle édition 1902) Theory of Heat (Longmans, Green and Co, London).

Smoluchowski, M (1914) Vorträge über die kinetische Theorie der Materie und der Elektrizität. Compte-rendu d'un exposé fait à une conférence tenue à Göttingen à l'invitation de la Fondation Wolfskehl (Teubner, Leipzig, 1914). Cette conférence a entendu aussi M. Planck. P. Debye, W. Nernst, A. Sommerfeld et H.A. Lorentz et était présentée par David Hilbert et H. Kamerlingh-Onnes...

Szilard, L (1929) Über die Entropieverminderung in einem thermodynamischen System bei Eingriffen intelligenter Wesen. Zeitchrift fur Physik 53:840-856.

von Neumann, J (posthumous, 1966) Theory of Self-Reproducing Automata (University of Illinois Press, Urbana).

Younis, SG, Knight, T (1994) Asymptotically zero energy computing using split- level charge recovery logic, Technical Report AITR-1500, MIT AI Laboratory

 

      accueil