caustique
Le drame est un miroir où se réfléchit la nature. Mais si ce miroir est un miroir ordinaire, une surface plane et unie, il ne renverra des objets qu’une image terne et sans relief, fidèle, mais décolorée ; on sait ce que la couleur et la lumière perdent à la réflexion simple. Il faut donc que le drame soit un miroir de concentration qui, loin de les affaiblir, ramasse et condense les rayons colorants, qui fasse d’une lueur une lumière, d’une lumière une flamme. Alors seulement le drame est avoué de l’art.

Préface à Cromwell
Victor HUGO


Autres Thèmes

Centre Royaumont pour une Science de l'Homme
Organismes génétiquement modifiés
Ordre / désordre /cruauté
Nankin 1996
Orient-Occident
Arts et Science
Éloge de la diversité
La grammaire de la vie

 

Comment René Thom a changé la biologie moléculaire

La version anglaise de ce texte a été lue par Jean-Pierre Bourguignon à l'Institut des Hautes Études Scientifiques pour un hommage à René Thom à l'occasion du centenaire de sa naissance

Alors que nous célébrons l’anniversaire de la naissance de René Thom il est temps de revoir comment sa pensée a pu influencer cette biologie moléculaire dont il critiquait tellement les présupposés. Le caractère prophétique de sa vision apparaît dans un échange avec Antoine Danchin, à la suite d’une discussion commencée dans la revue Le Débat à propos du déterminisme. C’est ce que je vais tenter de mettre au jour dans cet hommage. Ce qu’il reprochait à cette science encore jeune était le caractère anecdotique de bien des objets ou des processus qu’elle mettait en avant et son absence apparente de généralité. Il raillait les « bras-coupases », « tête-coupases » et autres enzymes supposées expliquer ce qu’est la vie. C’est que, mathématicien dans l’âme — mais bien plus Aristotélicien que Platonicien — il ne s’intéressait qu’aux phénomènes conduisant à des lois générales. Ce qu’il retenait de la vie n’était pas la collection des organismes ou des objets qui les composent, mais leur forme et le caractère « animé » qui, par exemple, conduisait l’évolution morphologique de l’embryon à l’organisme adulte.

Dans un échange de lettres où il me répondait, le 3 avril 1981, René Thom écrivait ainsi :

Ce que je reproche à la Biologie Moléculaire, c'est l'affirmation, élevée à la hauteur d'un dogme rituellement répété, que tout dans l'organisation biologique peut se ramener à des interactions moléculaires, affirmation qu'il n'est certainement pas possible d'infirmer, puisque les êtres vivants sont faits de molécules. Le problème est de savoir si la description des interactions moléculaires orientées par les niveaux supérieurs ne vont pas nécessiter l'introduction d'entités plus larges - comme des « champs », susceptibles à la fois d'une définition biochimique, et d'une définition « vitaliste ».

On sait que le vitalisme est la préconception qui veut qu’il existe un principe spécifique à la vie qui rende compte de son aspect « animé », comme cela se remarque dans les détails du mouvement chez les êtres vivants. Les manifestations de cette animation ont été décrites au cours des siècles sous de nombreuses formes, souvent organisées en hiérarchies, distinguant en particulier l’animation « végétative » des plantes, qui se retrouve au niveau le plus élémentaire de l’animation chez les animaux, qui, eux, sont doués aussi d’une animation d’un degré supérieur. Cette animation animale correspondait à la sensitivité, puis, chez l’animal choisi comme la référence ultime, l’homme, à l’activité intellectuelle. On ne s’étonnera certainement pas de retrouver cette façon de voir chez René Thom, validée par sa lecture approfondie d’Aristote. La question qui se pose au biologiste expérimentateur est alors de rechercher s’il n’existe pas, parmi les fonctions biologiques — fonction, terme employé en mathématique, est un concept très mal délimité en Biologie — , une famille de fonctions qui rendraient compte de cette animation. Cela permettrait d’expliquer cet énigmatique vitalisme au travers d’une conception originale qui mettrait au jour des principes physiques jusque là méconnus et présidant à la constitution de la chimie biologique.

Pour cela il fallait d’abord prendre en compte les points d’accord qui nous réunissait comme, dans cette même lettre, le remarque René Thom :

Mon cher Danchin,
Merci bien pour votre longue lettre, à vous lire en effet, j'ai bien l'impression que nos positions ne sont pas très éloignées. Si vous acceptez les idées : a) Déterminisme (de principe) b) Priorité ontologique du continu c) Autonomie (relative) de chaque niveau d'organisation morphologique alors cela fait déjà
([pas mal] mots rayés) une belle base d'accord. Mais je continue à "errer sans lumière", comme dit Valéry, sur le problème de la définition même des niveaux d'organisation. Posée brutalement, voici la question : Existe-t-il des critères formels (morphologiques) permettant de distinguer une morphologie "vivante", ou issue de l'action d'un être vivant, d'une morphologie due à la seule action des forces de la nature inanimée ?

Explicitons donc ces idées. Le point a) est critique, d’autant plus qu’une certaine mode tend à faire comme si l’on pouvait se passer du déterminisme. Or, cela ouvre la porte à toutes les fantaisies en laissant ouverte la possibilité de l’action magique du hasard, au gré de la demande conceptuelle. Dans une série d’interventions très violentes, Thom avait particulièrement à cœur d’éviter ce piège, remplaçant l’idée de hasard par la simple conjonction de séries causales indépendantes. Introduire la contingence plutôt que le hasard à l’origine de la logique de l’enchaînement déterministe des causes permettait en effet de faire comprendre l’apparente absence de logique a priori dans le décours des événements. La mode, toujours dominante aujourd’hui, du refus du déterminisme conduisait évidemment à la diffusion de concepts flous qu’il exécrait. Il termine ainsi sa lettre du 9 octobre 1981 :

Terminons par Prigogine. Que la collectivité scientifique presque entière ait pu se laisser berner par cet escroc en dit long sur l’état d’inculture (scientifique) de l’immense majorité des savants. Il n’y a aucun lien logique entre ordre et dissipativité :

Ordre Dissipativité
+ Cristal (à température homogène)
+ + Cristal (avec gradient de température
+ + Phénomène de Bénard (structure « dissipative »)
+ Turbulence hydrodynamique
systèmes hamiltoniens « type Anosov » (gaz à
molécules dures)

Et cependant on croit qu’il existe une thermodynamique de l’irréversible qui expliquerait la matière vivante...

Nous avons bien là un fort point d’accord. Dans ces conditions, il est grand dommage que, pas plus que l’auteur de ces lignes d’ailleurs, René Thom n’ait pas su qu’à l‘époque un physicien renommé que nous rencontrerons plus loin, Rolf Landauer, avait lui aussi établi l’inanité du travail de Prigogine dans une série d’articles résumés dans un article très fouillé des Annales de l’Académie des Sciences de New York : The role of fluctuations in multistable systems and in the transition to multistabiity [NYAS 316 : 433-452 (1979)] dédicacé à l’auteur de ces lignes.

Comme il s’est longuement exprimé à ce propos (« Halte au hasard, silence au bruit »), nous ne développerons pas la pensée de René Thom sur ce thème. Il ne faut d’ailleurs pas faire dire au déterminisme plus que ce qu’il ne signifie, ni en avoir peur au nom d’une idée très primaire de ce qu’est la liberté. Nous soulignerons simplement ici que ce qui importe, quand on invoque le déterminisme, est de ne pas se cantonner à la mécanique du XVIIIe siècle, où ce qui est déterminé est aussi prévisible. C’est cette façon de penser, passablement archaïque, qui conduit bien souvent au refus du déterminisme. De fait, non seulement l’image du papillon de Lorenz montre qu’il en est tout autrement, mais surtout, et cela fait apparaître un point que j’aurais beaucoup aimé discuter à l’occasion avec René Thom, il existe un domaine, pourtant fondé sur le caractère discret des nombres entiers, où le déterminé est par essence imprévisible. C’est celui des conséquences de bien des algorithmes récursifs : le déroulement d’un algorithme de ce type peut être à la fois tout à fait déterministe et parfaitement imprévisible. Ce point, mis en avant par John Myhill dès 1957 puis Douglas Hofstadter dans son Gödel, Escher, Bach, An Eternal Golden Braid en 1979 et souligné en 1988 par le confrère de Rolf Landauer chez IBM, Charles Bennett, et que j’ai discuté longuement dans La Barque de Delphes, nous amène évidemment au point b).

La génétique moléculaire contemporaine est en effet fondée sur une description algorithmique de l’expression des gènes. Or cela a éminemment un caractère discontinu, ce qui s’oppose à l’accent mis par Thom sur le continu. Toute la question est alors de voir si l’implémentation concrète d’un algorithme dans la matière douée de masse ne conduirait pas à mettre au jour des contraintes du réel dont les caractères seraient par essence continus. Cela nous replacerait sur un plan commun. En bref, aux catégories de base du réel : masse / énergie / espace / temps ne conviendrait-il pas d’adjoindre une catégorie supplémentaire, pourquoi pas, continue ou lié à un soubassement continu ? Cette question, que je dois à la réflexion de René Thom sur l’« information“, m’a fasciné depuis toutes ces années, et c’est quelques éléments de réponse que je voudrais apporter aujourd’hui, à nouveau en faisant référence à ses propres mots. Pour tenter de comprendre son point de vue, il est intéressant de citer un autre passage de cette même lettre où l’insistance sur une vision « vitaliste » du phénomène de la vie apparaît à nouveau, au moins comme heuristique. Thom propose l’existence des entités du réel qui se comporterait comme des « champs » qu’on pourrait manipuler formellement sans avoir à entrer dans le détail des objets en cause :

Et qu’un mode d’explication s’appuyant sur l’interprétation « vitaliste » pourrait être plus rapide que le déchiffrement patient et tortueux de la base biochimique ou biophysique de ces « champs ».

Mais avant d’illustrer ce que pourrait être une solution, il reste à prendre en compte le point c). Cela demande une réponse très élaborée, qui se lie au statut de l’expérience en biologie et que je ne peux qu’esquisser dans ce qui suit. En effet René Thom exige non seulement le respect de l’autonomie des niveaux d’organisation, mais aussi la générativité de toute approche digne d’intérêt, comme il le souligne dans cette lettre :

L’absence de générativité des formalisations en Biologie est l’un des obstacles théoriques majeurs, que la théorie des catastrophes - élémentaires ou non - n’est pas parvenue à lever. Raison de plus pour chercher !

alors qu’il avait souligné plus tôt (le 3 avril 1981) le fait qu’il n’est pas nécessaire de connaître le détail des entités matérielles (sous-entendu « douées de masse », comme le sont les objets constituants la cellule pour la biologie moléculaire ; nous butons tous sur la confusion entre « masse » et « matière ») :

Mais la possibilité légitime d’utiliser abstraitement des entités théoriques dont on ne connaît pas la base matérielle me semble un impératif méthodologique pour lequel je me battrai jusqu’au bout.

Il me semble qu’une ouverture se présente pour répondre à ces interrogations, si l’on introduit dans nos descriptions du monde une cinquième catégorie du réel, cette catégorie qu’on nomme le plus souvent « information ». On sait que pour la Physique c’est une chose bien acceptée. Cependant, bien que le mot soit employé et omniprésent dans les discours de la Biologie, il y est curieusement très vague et n’y a pas d’implication conceptuelle profonde. La seule définition mathématique où le terme est utilisé couramment est celle de Shannon et c’est une description discontinue, souvent associée à une description probabiliste qui lui donne un parfum de continu. Or le contexte de cet usage ne traite pas vraiment d’information au sens profond du terme comme le souhaitait bien sûr rené Thom, mais de communication : comment transmettre sans erreurs un message, compris comme une suite de symboles sans se préoccuper de sa signification ? On trouvera là sans doute une des raisons pour lesquelles Thom, à ma connaissance, n’a fait qu’esquisser ce qui pourrait être une « théorie de l’information » dans un sens général, tout en s’interrogeant sur la nature épistémologique de ce concept. Il va de soi que la vision de Shannon est incroyablement pauvre et ne peut être l’information qui habite la réalité physique du monde. C’est particulièrement vrai de la Biologie où la signification, le sens, a un rôle central. Il convient de faire apparaître quelque part sa mise en contexte, ce qui serait, à mon sens, l’occasion de faire apparaître l’un de ces « champs » évoqués par Thom.

On voit bien en effet que la signification d’une molécule d’ADN est définie par le contexte dans laquelle elle est placée. Une démonstration expérimentale saisissante de ce fait a été donnée au Japon lorsque le génome complet d’une algue bleue a été implanté dans le bacille subtil : on n’observe rien d’autre que, lorsque l’hôte se multiplie, la création d’une réplique de ce génome étranger. Cela se produit sans autre particularité qu’un certain ralentissement de sa croissance. Or, placé dans l’algue parente, ce même génome va évidemment donner à la cellule toutes les propriétés qu’on lui reconnaît — y compris en termes de morphologie — et la définir comme espèce microbienne. Spécialement, dans ce cas, cela implique son aptitude à fixer le gaz carbonique en présence de lumière. Cette remarquable expérience démontre qu’il y a bien une information minimale dans l’ADN placé dans un contexte vivant, celle qui conduit à sa copie exacte, sa réplication. Cela correspond bien à l’information à la Shannon, mais que penser alors de l’information qui dirige la synthèse d’une algue bleue, et lui permet de réagir au Soleil ?

Rolf Landauer s’est fait l’avocat de l’idée, acceptée par beaucoup mais pas tous, que l’information est physique (« information is physical » insiste-t-il dans de nombreux textes). Pour lui, il s’agit bien d’une authentique catégorie du réel, même si on ne sait pas encore ce que cela signifie dans le détail, et il s’agit de bien autre chose que l’« information » de Shannon. Il me semble que suivre les développements de la pensée de Landauer est une piste qui aurait sans doute inspiré René Thom. Il est vraiment dommage que ces deux courants de pensée, développés en parallèle, ne se soient pas croisés avant la disparition de l’un et de l’autre (1999 et 2002). Cette vision impose de facto la catégorie information comme une cinquième catégorie du réel. L’accepter ouvre alors à la Biologie une entrée au sein de la Physique via un concept jusque là purement métaphorique. Si l’information est une authentique composante de la vie, comprendre le détail de sa gestion au sein de la cellule devient critique.

Rolf Landauer est connu pour ce qui est souvent nommé le « principe de Landauer ». Publié en 1961, ce principe est encore largement ignoré, malgré les divers détails déjà discutés par Charles Bennett — l’un des pères de la cryptographie quantique — en 1988. Nous avons là un exemple du même type que l’occultation très longue des travaux de Mendel. Ce principe repose sur deux démonstrations. D’une part effectuer un calcul peut se faire de façon réversible — sans consommer d’énergie, par conséquent — et d’autre part, il y a bien dissipation d’énergie quelque part, mais ce qui coûte de l’énergie est l’effacement de la mémoire qu’il a fallu utiliser pour réaliser le calcul. Nous pouvons remarquer déjà ici que ce principe implique le couplage de deux processus, un processus lent, qui peut faire émerger de l’information, et un processus rapide qui rend irréversible le résultat de cette création. Qu’il s’agisse bien d’une réalité physique se perçoit dans sa mise en œuvre dans le « calcul adiabatique », par exemple, réalisé par une famille de microprocesseurs, mais aussi dans de nombreuses expériences récentes où une certaine quantité d’information a été transmutée en énergie. Cette démonstration est remarquable parce qu’elle va au contraire d’une intuition largement partagée, qui voudrait que ce soit le processus de création d’information qui soit énergivore. N’avons-nous pas là l’introduction de ce qui pourrait être représenté par une catastrophe ?

Il est dans l’essence de la théorie des catastrophes de présupposer deux échelles de temps : une dynamique lente (portant sur les variables externes ou de contrôle) et une dynamique rapide (portant sur les variables internes ou d’état). Un phénomène du type soliton de Klein-Gordon ne rentre pas dans le schéma catastrophique (alors que l’incendie de forêt y rentre). Les schémas catastrophiques sont donc particulièrement adaptés à la description des articulations entre deux niveaux de description : un niveau fin, où on a la dynamique rapide, et un niveau grossier, où règne la dynamique lente.

Afin de suivre l’impératif souhaité par René Thom, à savoir identifier un principe général qui permettrait de comprendre l’« animation » de la chimie biologique , il semble nécessaire de s’interroger et de rechercher, parmi toutes les fonctions biologiques, au moins une famille générale qui répondrait à la question. Il faut aussi que les fonctions en cause illustrent la dynamique ainsi décrite. Pour cela nous pouvons, malgré qu’il en ait, nous demander d’abord quels sont les objets concrets de la biologie dont il conviendrait d’expliquer l’existence. C’est ensuite qu’il sera possible de généraliser. Thom, qui avait été inspiré par les aiguillages de son enfance, aurait pu accepter cette façon de faire.

Commençons par identifier certaines propriétés qui affectent le fait même de vivre. Le vieillissement est l’une d’entre elles, évidente. Les choses matérielles (celles qui ont une masse) s'estompent avec le temps. Progressivement, la cellule mélange des entités anciennes et leurs contreparties plus jeunes, et perd ses capacités. Si un assemblage particulier possède une structure bien définie (associant ses éléments par des relations spécifiques), cette structure s'étiole et disparaît. Pour éviter ce destin, un processus spécifique doit être capable de faire la distinction entre les entités pertinentes et celles qui ne le sont pas et mettre à l’écart ce qui est dysfonctionnel. Ainsi, la caractéristique principale des fonctions à découvrir est qu'elles doivent permettre la discrimination entre classes d'objets.

L’aptitude à discriminer est à l’origine de ce que nous appelons généralement « décision ». Nous ne comprenons toujours pas exactement pourquoi les lois physiques standard, qui s’imposent à la Biologie, donnent lieu, dans ce domaine de la réalité, à des entités qui semblent « animées ». Bien sûr, un feu ou une rivière bougent, ils ont une sorte d'animation, mais dans le cas de la vie, cette animation semble avoir un but. Elle peut « décider » d'orienter ses mouvements, ou de séparer des classes d'objets. Mais n’avons-nous pas là justement l’apparition d’un comportement typiquement « vitaliste » ? Pour éviter d'être inondée d'entités non fonctionnelles, la cellule doit être capable, en permanence, de discriminer entre ce qui est jeune et ce qui est vieux, et aussi ce qui a été touché par des accidents chimiques, par exemple. Et le champ de ce qu’il faut discriminer est bien plus vaste. De façon plus subtile, la croissance, puis la division des cellules, suppose non seulement des changements morphologiques, mais surtout, comme le diable est dans les détails, la localisation correctement répartie de leurs composants. Cela suppose aussi, pour ces longs polymères qui constituent le cœur de la cellule, une mise en forme impliquant un repliement fonctionnel. Bien sûr l’identité de la cellule — en quoi elle diffère de son environnement, et des autres cellules en particulier — est aussi une propriété cruciale à expliquer. On a là une question conceptuelle centrale qui se résume par la nécessité qu’a le phénomène vivant de constituer des classes et d’agir de façon à pouvoir discriminer les entités, douées de masse, de forme ou de position, ou plus abstraites encore, qui les composent. On peut noter ici d’ailleurs que ce processus-même, former des classes, n’est pas étranger à l’importance de la typologie des catastrophes, par exemple. Et voici dans quelle direction il faut chercher :

Je ne suis plus guère en désaccord avec ce que vous dites dans votre dernière lettre ; je veux bien croire à l’existence d’une contrainte dûe [sic] à une structure hiérarchique l’ensemble du métabolisme. Mais je crois qu cette structure — si elle est réalisée « moléculairement » — a elle aussi une origine formelle continue, liées aux contraires « a priori » de la régulation. À côté de la contrainte de localisation spatiale, il y a aussi contrainte de la cinétique chimique dûe [sic] à son efficacité fonctionnelle et sa régulation.

C’est ce véritable programme de recherche qui a motivé mon exploration du lien entre l’information et les objets biologiques du métabolisme. Cela m’a conduit à identifier des agents se comportant comme des démons de Maxwell, et qui vont, en discriminant entre classes d'objets, engendrer précisément ce facteur d'« animation » que recherchait René Thom ! Plus précisément, dans les plus petits génomes, un dixième au moins des gènes code des fonctions de ce type, et ce sont des fonctions qui, parce qu’il s’agit d’un comportement jusque là ignoré, sont restées longtemps « inconnues ». Thom n’aurait sans doute pas aimé l’idée d’« agent », mais il faut bien incarner les principes abstraits. Et par ailleurs ce qui importe ici est la généralisation que permet la conception abstraite de leur rôle. Comment se comportent-ils en effet ? La fonction en question doit, si les classes ne sont pas ambiguës, mettre en œuvre un processus qui évite l'erreur de mettre ensemble des objets à distinguer. Il ne s'agit pas de les reconnaître, mais de ne pas les mélanger, de sorte que leur destin ultérieur diffère. L'objet de la discrimination est de répartir les entités dans une séquence d'événements spatio-temporels différents (destins différents). La fonction de discrimination ne s'arrête donc pas à un élément donné, mais implique toujours plusieurs éléments différents les uns des autres. C'est la différence essentielle avec la reconnaissance / identification spécifique aux enzymes que détestait René Thom. Quelque chose sera l’objet d’une mesure, mais l'agent discriminant associera cette mesure à une action particulière, la construction de classes d’entités destinées à suivre des destins ultérieurs de nature différente.

Comme il s'agit de classes et non d'individus isolés, les entités en cause peuvent s'accommoder d'une certaine variation de leurs caractéristiques. Elles n'ont généralement pas de raison d'avoir une valeur spécifique et bien définie, mais appartiennent plutôt à un espace de valeurs : on voit là un processus de généralisation du type souhaité par Thom. Cela signifie que l'algorithme de discrimination est très différent de l'algorithme de reconnaissance. Les caractères concernés ne sont pas indépendants les uns des autres et leur combinaison n'a aucune raison d'être additive. Typiquement, si tel ou tel caractère a telle ou telle valeur (dans des limites particulières), alors on s'attend à la présence de tel ou tel autre caractère dans des limites qui dépendront de la valeur du premier caractère (c'est en quelque sorte markovien, avec toutes les généralisations possibles). Par ailleurs, le processus tolère un certain niveau de contradiction. Si une majorité de caractères correspond à la classe, il est possible de tolérer la présence de caractères qui ne satisfont pas à la règle de la majorité. La discrimination est une propriété purement informationnelle, qui nécessite la mémorisation d'un caractère afin de classer les objets qui possèdent ce caractère et de les distinguer de ceux qui ne le possèdent pas. C'est exactement ce que fait un démon de Maxwell.

Cependant le processus de discrimination est indissociable du mécanisme de sa mise en œuvre dans le temps et dans l'espace. Il convient de l'étudier, puis de le décrire en détail. Au cours de sa mise en œuvre, l'entité discriminante va effectuer une succession de choix en fonction de ce qu'elle mesure, en relation avec une mémoire spatio-temporelle qui, à la différence de la reconnaissance, n'a aucune raison d'être statique (puisqu'il s'agit de classes, c'est-à-dire d'objets présentant un sous-ensemble de propriétés appartenant à un ensemble plus vaste). La nature et l'origine de cette mémoire devront être analysées en profondeur. Typiquement, il s'agit d'un ensemble généralement large, mais fini, d'objets dont l'existence même résulte du processus d'évolution par sélection naturelle.

Dans la réalité — après tout, nous devons comprendre la cellule — le processus de discrimination peut affecter l'objet discriminé au cours de son déroulement, puisque cet objet est défini comme appartenant à une classe et ne présente donc pas un ensemble de caractéristiques strictement uniques. C'est là qu'une dimension mécanique de la Physique peut entrer en jeu (le processus de discrimination peut « déformer » l'objet lors de l'interaction qui décide de son appartenance à une classe), ce qui explique la difficulté que nous avons à distinguer la dissipation d'énergie liée au processus de discrimination (discutée plus loin) de celle liée à la mécanique (qui déforme l'objet, par exemple). Définir un processus de discrimination implique donc de décrire une séquence d'événements impliquant une série dynamique d'interactions. Il est donc raisonnable de parler d'un « agent » discriminant. Cependant, cela rend notre analyse des processus physico-chimiques impliqués difficile car, encore une fois, il peut être couplé à des caractéristiques mécaniques, impliquant des forces mécaniques. La conséquence de cette remarque est qu'il sera parfois difficile de distinguer l'énergie impliquée dans la manipulation de l'information et dans les actions mécaniques.

Cela explique le fait que nous ayons invoqué l'idée du démon de Maxwell, qui est d'abord caractérisé par une description mécanique (déplacement d'une trappe de séparation entre deux compartiments). Cette façon de voir les choses implique aussi explicitement la mise en œuvre d'une quantité d'énergie qui sera utilisée par l'agent pour distinguer les éléments qu'il classe et qui entre ensuite dans un destin spécifique pour chaque classe. Notons à nouveau qu'il s'agit d'un processus très différent de la reconnaissance, qui est purement passive, agissant comme une « porte d'entrée » vers une destinée indépendante du processus lui-même (transport, catalyse, départ d'une régulation...), et, pour René Thom, sans intérêt conceptuel. Dans le processus biologique de discrimination, on s'attend donc à ce qu'intervienne une source d'énergie dont l'utilisation suit une succession d'étapes.

Imaginons le cas de deux classes. L'agent discriminant est préalablement muni d’une source d'énergie, « prêt à tirer » en quelque sorte, mais avec un cran de sûreté. Il rencontre un objet inconnu et doit décider à quelle classe il appartient.
1/ Premier cas. Une série d'interactions avec l'objet le laisse inchangé, ce qui conduit à la fin du processus, laissant l'agent discriminant muni de sa source d'énergie et de son cran de sûreté inchangés.
2/ Deuxième cas. Une première série d'interactions modifie le couple agent discriminant-objet à classer, entraînant une seconde série d'interactions. Le cran de sûreté est levé. L'objet est alors traité comme un élément d'une classe différente de celle du premier cas, et est orienté vers un chemin métabolique, spatial ou temporel particulier qui décideront de son avenir.
Après cette étape, l'agent discriminant doit revenir à son état de base et pour cela dissiper l'énergie dont il était muni puis en se liant à nouveau à une source d’énergie tout en réarmant son cran de sûreté.

Tout cela implique un certain nombre d'étapes bien observées chez les agents biologiques caractérisés (typiquement : activation d'une liaison riche en énergie, rupture de la liaison en au moins deux éléments, éjection d'au moins un des éléments, puis remise à zéro avec éjection de ce qui reste et remplacement par une nouvelle source d'énergie). Une illustration de cette façon d’utiliser l’énergie pour manipuler l’information est le tri qui permet aux seules jeunes protéines d’occuper le bourgeon naissant d’un nouvelle cellule chez la levure, alors que les protéines vieillies ou accidentées se retrouvent dans la cellule-mère. La dynamique qui conduit à identifier les entités d’une classe est lente, alors que la dissipation de l’énergie pour remettre à zéro est rapide. Ne peut-on penser que cela aurait inspiré René Thom ?

Il reste un dernier point que j’aurais aimé soumettre à sa sagacité : comprendre la croissance des cellules (plutôt ici que des macroscopiques embryons qui lui étaient chers), met au jour une vraie question de morphologie. De façon amusante, c’est une sorte d’anecdote qui ouvre vers une question générale. C’est qu’il faut bien que les principes les plus abstraits s’incarnent dans la réalité physique du monde. Cela oblige à faire apparaître des objets dont la nature est contingente, mais qui prennent la place nécessaire pour permettre la réalisation concrète d’un principe général. Le processus de discrimination permettant la construction de classes dissipe de l’énergie. Jusque là cela reste très abstrait. Pourtant les objets supports de cette énergie sont des composés chimiques qui jouent le rôle de réservoirs d’énergie. Ces composés sont toujours les mêmes, quelle que soit la fonction de discrimination. Pourtant l’expérience a mis au jour une exception notable, totalement inattendue. L’un des supports de cette énergie à dissiper, lorsque la cellule doit décider d’organiser ses chromosomes au cours de la croissance pour les répartir dans les cellules filles, comprend bien le réservoir d’énergie classique, mais son contenant diffère des contenant habituels. C’est un réservoir à part.

Pourquoi diable cette particularité ? Là, bien sûr, il faut entrer dans le détail pour comprendre, et ce détail faisait horreur à René Thom. Pourtant il révèle une question générale, que j’aurais beaucoup aimé lui soumettre. C’est une question de géométrie de l’espace euclidien qui nous contraint tous. Une des propriétés clés du vivant est le fait que les cellules croissent, avant de donner naissance à de nouvelles cellules de même type. Une cellule est une entité à trois dimensions. Elle grossit en combinant l’entrée et la sortie de blocs élémentaires qui lui permettent de se construire. Dans un état de régime constant la construction de ces blocs et leur combinaison se fait à trois dimensions, dans une machinerie du cytoplasme qui grossit donc comme lui. Or cela conduit à des contraintes physiques que l’évolution a dû prendre en compte pour harmoniser cette croissance. La synthèse métabolique créé « trop » de précurseurs pour la membrane et encore plus pour le génome. En particulier la membrane cellulaire est à deux dimensions, et le génome de la cellule, plus sérieux encore, est un fil, donc à une dimension. Il existe donc un paradoxe entre la synthèse à trois dimensions des précurseurs, et la croissance non-homothétique des membranes et du génome. Ce dernier, on le sait d’ailleurs, tend à occuper le volume de la cellule un peu comme le ferait une structure de Peano. Comprendre les solutions trouvées au cours de l’évolution aurait pu séduire René Thom. Je lui laisse donc le mot de la fin :

À côté de la contrainte de localisation spatiale, il y a aussi contrainte de la cinétique chimique liée à son efficacité fonctionnelle et régulatrice. Cuvier et Geofrroy Saint Hilaire en 1830 avaient déjà très bien vu cela, je suis heureux que les biologistes contemporains le redécouvrent, et que l’hystérésis des structures moléculaires puisse déterminer des détails « plastiques » et relativement contingents comme les zébrures chez le zèbre ou la panthère, je n’y vois pas d’inconvénient. C’est un certain isomorphisme entre la dynamique de l’organisme entier, et le dynamisme de la cellule, qui explique que certaines structures globales puissent être « codées » moléculairement dans la cellule (ADN ou protéines nucléaires...)