Delphes
Je suis le serpent Sa-en-ta, l'habitant du sein de la terre; je suis mort et je renais, renouvelé; chaque jour je retrouve une nouvelle jeunesse

Papyrus d'Ani. Chapitre LXXXVII (tr. adaptée de Burge)


Sélection naturelle et immortalité

Les génomes se répliquent, alors que les cellules se reproduisent. Nous explorons ici le dialogue entre reproduction et réplication, fondée sur une analyse en profondeur des génomes bactériens, en relation avec le vieillissement. Fabriquer des jeunes structures à partir des plus vieilles implique de créer de l'information. Nous revisitons brièvement visite la Théorie de l'information, en montrant que les lois de la physique permettent la création de novo d'information, pourvu qu'un mécanisme consommateur d’énergie préservant les entités fonctionnelles permette que des entités accumulent de l'information. Nous suggérons que la source d'énergie nécessaire pour permettre la reproduction quand la réplication est temporairement arrêtée pourrait être les polyphosphates dont on sait qu’ils sont ubiquistes. Enfin, nous montrons que plutôt que de maintenir et de réparer l'individu originel, les organismes ont tendance a se métamorphoser en jeunes, parfois totalement et parfois progressivement. Cela permet aux systèmes vivants d'accumuler l'information de génération en génération mais a le défaut, dans les organismes multicellulaires, d'ouvrir la porte à l'immortalisation, qui conduit au cancer. Cette vision particulière distingue ainsi ce qui construit la vie de ce qui la perpétue. Il n'y a pas d'immortalité autre que dans le fait de construire un organisme jeune qui remplacera ceux qui l'ont précédé.

Pour une Biologie Symplectique

Avertissement : le contenu conceptuel de cette présentation dépend fortement de la langue qui l'exprime, et il n'est donc pas rigoureusement identique en français et en anglais. Au surplus il correspond à une pensée en cours d'élaboration, et n'est donc pas fixé dans le temps. Une version antérieure était développée au Centre HKU-Pasteur

Recherche « motivée » *

La Science évolue au travers d'une association intime entre la création de concepts et de techniques (voir la méthode critique générative), en parallèle avec un dialogue constant entre les découvertes et leurs applications. S'il existe bien une recherche purement appliquée, illustrée par les travaux d'un ingénieur comme Edison, ou une recherche purement conceptuelle, typique de celle de Niels Bohr, la nécessité d'une motivation sociale se fait jour dès qu'il faut mettre en œuvre le développement de technologies coûteuses. Et si la réflexion mathématique ne demande souvent qu'un salaire, du papier et un crayon, ce n'est pas le cas de la plupart des travaux de recherche. Louis Pasteur avait bien compris cet ancrage de la création scientifique dans le monde concret de l'économie. Et pour réaliser l'exploration conceptuelle du Monde, il choisissait systématiquement comme prétexte à la découverte, une question importante pour l'imaginaire collectif (l'origine de la vie), l'industrie (les maladies de la bière et du vin), ou le grand public (les maladies infectieuses).

La méthode usuelle dont la Science procède est la méthode hypothético-déductive, qui fait usage d'un modèle du Réel pour le mettre en regard des résultats et du comportement d'expériences construites avec l'objectif de mettre au jour les limites des hypothèses. Bien que cette façon de voir soit très efficace pour planter le décor, tout en produisant un arrière-plan conceptuel fort pour expliquer les progrès de la science, seule, elle ne conduit pas à la découverte. La découverte ne peut être décidée à l'avance. La recherche pilotée par la découverte doit donc combiner cette approche de référence (Gréco-Latine) avec les approches pilotées par les données (souvent privilégiées par le monde Anglo-Américain) ou par le contexte (privilégiées par le monde Chinois). L'expérience d'un long séjour à Hong Kong nous a permis de découvrir cette complémentarité, et de rendre explicites les contraintes sous-jacentes (qui expliquent que, dans un monde pour l'instant dominé par la langue anglo-américaine un certain nombre de façons de penser soient extrêmement difficiles à diffuser).

Afin de mettre en pratique cette façon de voir, nous avons créé une entreprise, AMAbiotics, dont l'objectif est de développer de la recherche en amont de questions posées par une motivation sociale. Dans le cas des premiers travaux de cette société il s'agit de découvrir si l'étude du métabolisme collectif d'un individu et de sa flore associée permet de comprendre la façon dont se complémentent mutuellement le métabolisme de l'individu et celui de sa flore. Tout déséquilibre se manifestera en effet par une accélération du processus de vieillissement, avec les effets délétères qu'on peut en attendre.

Mise en garde

Dans la mesure où un grand nombre de concepts utilisés dans la vision proposée fait usage de certains mots à la connotation lourdement marquée par la sociologie politique du moment, il me semble essentiel de rappeler ces phrases de Zinoviev (qui, en traduction, datent de ... 1977 !). Le lecteur est donc prié d'exercer autant que possible son esprit critique vis à vis des propositions qui sont formulées ici. Ce n'est pas parce qu'une énorme partie des faux intellectuels du moment utilisent les mêmes mots que les concepts sous-jacents sont les mêmes... On se méfiera en particulier des circonstances où deux mots sont utilisés comme s'ils étaient interchangeables (par exemple "entropie" et "désordre") car c'est le signe de l'intrusion subreptice d'une idéologie qui n'ose dire son nom.

 "Au cours des dernières décennies il est apparu une multitude de groupes, de secteurs, de divisions, de départements, de séminaires, de conférences, de symposiums, de colloques, de revues, de recueils, d'associations, de congrès, etc., consacrés à la méthodologie scientifique. (...) La liste des travaux en méthodologie s'allonge de façon menaçante. (...) Naturellement, la méthodologie scientifique cherche à marcher au même pas que le développement des sciences concrètes, et à paraître moderne et d'avant-garde. Cependant, elle ne le fait pas en élaborant son propre système de concepts et de principes méthodologiques de la connaissance, mais en annexant spontanément des idées, des concepts et des propositions des sciences concrètes à la phraséologie méthodologique. C'est le cas, en particulier, des nouvelles méthodes d'approche sur de vieux problèmes, qui ont bénéficié d'une grande vogue ces derniers temps. Ce sont les méthodes fondées sur les systèmes, les modèles, les structures, les fonctions, l'information. Pour se représenter ces théories généralisatrices, le lecteur pourra entreprendre, par exemple, de construire une théorie méthodologique des fonctions, qui engloberait les fonctions mathématiques, la méthode fonctionnelle, et les fonctions d'une section syndicale dans les entreprises de l'industrie textile. En définitive, tout le kaléidoscope de mots comme "système", "systématique", "information", "structure", "fonctionnel", "modèle", etc., qui a cours dans le flot puissant de la méthodologie, n'exprime le plus souvent que les coloris de notre époque, et non les résultats de recherches sérieuses. Bref,dans le domaine de la méthodologie scientifique, la motivation déterminante n'est plus la recherche désintéressée de la vérité, mais le désir d'occuper une place plus douillette dans l'immense armée des hommes qui vivent sur le compte d'un petit nombre de problèmes banals.

Alexandre Zinoviev (Александр Александрович Зиновьев)
Les hauteurs béantes
trad Wladimir Berelowitch L'Age d'Homme (1977)166-168 

Nécessité de l'information comme catégorie authentique de la Physique

La méthode critique est inséparable d'une approche analytique qui commence par déconstruire l'objet, ou le processus auquel elle s'intéresse. Mais cette analyse ne peut nullement être une fin. On ne comprend pas une entité compliquée simplement en la disséquant. On remarquera cependant que c'est là une étape essentielle, longtemps interdite par des contraintes religieuses, et qui a été remarquablement illustrée par les leçons d'anatomie d'Ambroise Paré, et célébrées par Rembrandt. Dès cette étape, malgré ses limites, on commence à pouvoir agir sur le Monde, et la chirurgie, aujourd'hui l'une des disciplines les plus efficaces de la médecine, lui doit infiniment.

On n'aura commmencé à comprendre, cependant, que lorsqu'on qu'on aura commencer à reconstruire. Et cela commence avec la constitution de modèles du Réel. Un élément essentiel de l'aller-et-retour entre le modèle et le Réel sera d'abord la reconstruction d'un ensemble "réaliste" qui incorporera la totalité de la connaissance à un moment donné dans un système explicitement mis en action. C'est là l'objectif central de la Biologie Synthétique qui commence à constituer son programme de recherche au début du XXIe siècle.

Mais pour comprendre cet effort il convient de revenir à ce qui est le cœur de la Biologie, le concept de forme. Depuis le temps de Claude Bernard, qui se fit l'avocat de l'étude de la Biologie à partir du monde de la Physique et de la Chimie, la Physique a été le théâtre d'une extraordinaire révolution, marquant la fin de la Physique Classique (la théorie de la Relativité est le dernier avatar du déplacement anthropocentrique commencé par Copernic et ses prédécesseurs). La création de la Physique Quantique mit au jour une carence profonde dans la façon dont s'articulent les quatre catégories centrales de la Nature, Masse, Énergie, Espace et Temps, résumée dans l'équation d'une merveilleuse concision écrite par Henri Poincaré puis Albert Einstein E = mc2. C'est que la révolution de la Physique Quantique, en 1905, introduisit une nouvelle description formelle de la Nature fondée sur un formalisme mathématique (algébrique et discontinu) entièrement différent de celui (fondé sur l'Analyse et le continu) de la Physique Classique et qui permettait d'introduire une nouvelle vue, orthogonale, de la nature des choses. La séparation de ces deux domaines était si importante qu'Albert Einstein lui-même vit que, pour résoudre les contradiction inhérentes à la co-existence de ces deux façons de représenter la Nature, il fallait supposer l'existence de « variables cachées » qui auraient permis, si elles existaient, de conserver les contraintes du modèle classique. Nous savons aujourd'hui que toutes les expériences destinées à découvrir ces variables ont échoué. C'est ainsi que l'inégalité de Werner Heisenberg, Δx Δp ≥ h/4π, est parfaitement significative d'une propriété originale du Réel. Elle introduit indirectement, en plus des quatre catégories formant le Réel, déjà citées, une cinquième catégorie, Information: c'est en effet un manque d'information qui rend compte de l'indétermination de la position et du momnet d'entités quantiques individueslle, qui, autrement, sont caractérisées par un ensemble de propriétés qui relèvent des quatre catégories standard de la Physique Classique.

Le rôle de la forme, depuis les premiers penseurs présocratiques, a été systématiquement mis en évidence, mais pas toujours comme une catégorie en soi (comme c'était le cas chez Aristote par exemple). De fait, à partir de la révolution qui a fait passer de la vision des quatre éléments encore retenue par Cavendish et Priestley, par exemple, à celle de Lavoisier et Dalton, la théorie atomique a surtout perçu la forme comme un dérivé explicable par les propriétés intrinsèques des atomes. La combinaison de la réflexion sur l'énergie, puis de son lien géométrique, spatial, avec la matière des atomes a éloigné pour un temps la prééminence de la forme comme catégorie de la Physique.

Pourtant, très vite, la Biologie est venue apporter, par sa façon "gratuite" (pour reprendre un terme que Jacques Monod affectionnait) de considérer la forme, une sorte de démenti à l'idée que la forme pourrait être seulement dérivée de l'assemblage des atomes selon leurs propriétés intrinsèques au sein des quatre catégories, masse, énergie, espace et temps. En bref, malgré toutes ses qualités, l'équation de Schrödinger, à elle seule, ne peut pas prédire, ni même dire la règle du code génétique. Il faut quelque chose de plus, et ce quelque chose est, pour l'essentiel, un ensemble de relations entre les objets et la dynamique des constituants de la vie. C'est une information d'un certain type. Une image fait comprendre assez facilement cette originalité de la forme / information, c'est celle de La Barque de Delphes.

"Ainsi, parmi les questions posées par l'oracle de Delphes il y avait une question fondamentale, énigmatique comme le sont les questions des oracles, qui se rattache directement à la nature des artefacts produits et utilisés par les organismes vivants. Si par exemple, on considère une barque faite de planches ajustées, on peut se demander ce qui fait que la barque est barque. Cette question n'est pas un pur jeu de l'esprit, comme on le voit concrètement dans le fait qu'au fur et à mesure que le temps passe certaines planches commencent à pourrir, ce qui force à les changer. Si bien qu'arrive un temps où il ne reste plus une seule planche originelle.

La barque est alors semblable à celle qui a commencé à exister, mais sa nature matérielle n'est plus la même : est-ce donc bien la même barque ? Un propriétaire l'assurerait, et pourtant aucun élément matériel de ce qu'il a originellement acquis, n'est plus présent. Analyser les composants de la barque, les planches, ne dirait que très peu à son propos. Il suffit de le constater en démontant la barque : elle se réduit à un tas de planches. Et ces planches sont différentes au début et à la fin du processus ! La nature des objets joue bien un certain rôle cependant : une barque faite de planches de chêne est différente d'une barque faite de planches de sapin. Mais ce rôle est en quelque sorte anecdotique. Ce qui compte dans la matière des planches est, outre leur relative stabilité dans le temps, leur aptitude à interagir, et à être façonnées d'une certaine manière. On aurait donc tendance à dire, ou bien que la barque n'existe pas, ou bien qu'elle est de nature différente des objets qui la composent. C'est l'organisation des planches les unes par rapport aux autres qui fait que la barque est barque." [La Barque de Delphes]

Après avoir beaucoup réfléchi à l'importance de nommer les concepts (nous sommes encore tout à fait nominalistes, comme l'a bien remarqué Umberto Eco, et la chose n'existe en un sens que par son nom — encore un type d'information !), le mot "symplectique" s'impose pour nommer la biologie qui s'intéresse aux relations entre objets, plus qu'aux objets eux-mêmes. L'intérêt de ce mot, construit selon les règles classiques de la nomenclature scientifique, c'est à dire à partir du Grec (συν, avec, ensemble, et πλεκτειν, tisser) est d'une part qu'il est peu utilisé (il existe bien un géométrie symplectique, mais il s'agit d'un domaine très spécialisé de la mathématique, dont les connotations ont peu de risque d'être contagieuses), et d'autre part il dit la même chose que le latin complexus, mais sans les terribles confusions du mot "complexe" en français, qui veut dire à la fois si mal organisé qu'il est impossible à comprendre, et hautement organisé, sans compter le développement d'une idéologie de l'ordre et du désordre aux graves implications politiques, autour de ce mot.

Ce rôle particulier des relations entre objets, qui constitue la forme d'une entité biologique n'est pas une simple abstraction, une autre façon de dire ce qu'on sait déjà. L'information est bien une catégorie en soi. Les travaux de Massimo Vergassola et de ses collègues en ont récemment donné une illustration si concrète qu'elle s'applique désormais en robotique. En bref ces chercheurs ont remarqué que ce qu'on interprétait de façon classique comme la remontée d'un gradient, la façon dont un papillon va retrouver sa femelle un kilomètre plus loin, ne pouvait absolument pas relever de cette physique des quatre catégories habituelles. C'est que l'atmosphère est turbulente, troublée par le vent et les courants d'air, et bien sûr par toutes sortes d'obstacles. Et pourtant le vol en apparence erratique du papillon découvre rapidement sa femelle. Vergassola et ses collègues ont montré qu'on expliquait bien cette observation répétée en considérant que le vol du papillon cherche à maximiser une information, liée à la présence d'une phéromone qu'il sait reconnaître. C'est non une chimiotaxie, mais une infotaxie qui le guide.

Placer la sélection naturelle au sein de la physique

Si l'information est bien une catégorie authentique de la Physique, il est important de reconsidérer les règles perçues comme floues ou ambiguës de la Biologie. Le concept central de Sélection Naturelle est l'un des plus discuté — qu'on se souvienne des arguments négatifs de Karl Popper ou de John Eccles, qui ne plaçaient pas ce concept parmi les concepts scientifiques. Or l'introduction de l'information comme catégorie permet de lui donner un statut profond et bien placé au sein de la Physique.

Pour cela il convient d'abord de revenir aux réflexions les plus récentes sur l'information. Ensuite il faut comprendre qu'accepter "information" au sein de la Physique nécessite de l'articuler avec les quatre autres catégories, Masse, Energie, Espace et Temps. Nous ne tenterons pas de le faire ici pour la Physique proprement dite, mais la Biologie nous donne le moyen d'y avoir accès en profondeur. C'est ce qui va être résumé ici très brièvement. Pour comprendre le concept d'information dans ce contexte, on se reportera au chapitre 3 de La Barque de Delphes, et pour une description détaillée, en anglais on se rapportera à l'article Natural Selection and Immortality.

Une citation d'un article sur les travaux de René Thom (La mathématique e(s)t la vie, fait comprendre aisément combien notre vision actuelle de ce qu'est l'information est encore limitée :

"L 'analyse d'un texte écrit dans une langue inconnue? Cela peut se faire de bien des manières, et par exemple les approches statistiques ont été parfois inspirées, mais souvent éloignées de la réalité biologique. Pourtant il est possible de s'interroger, mathématiquement, en partant de cette métaphore alphabétique. Que voit donc la réplication, qui recopie le texte du génome, de génération en génération ? Ce processus fondamental, naturellement, ne se soucie pas, a priori, de la signification du texte. Il est donc naturel d'utiliser pour une première exploration du texte génomique, les méthodes habituelles d'analyse du signal. Et l'on trouve en effet des centaines d’articles qui utilisent la transformée de Fourier, les ondelettes, fonctions de corrélation, classification maximale prédictive, chaînes de Markov, ou même le dénombrement explicite pour découvrir des particularités du texte génomique. On pourrait croire, par exemple, que trouver les zones répétées dans la séquence est une tâche aisée. Il n'en est rien. Si ce n'est pas trop difficile pour les répétitions exactes (encore faut-il trouver des algorithmes rapides pour le faire, ce qui n’est pas à la portée du premier venu), c’est impossible dès qu’il s’agit de trouver des répétitions avec erreurs. Là ont été inventés des approches particulièrement astucieuses qui utilisent les ressources les plus élaborées de l’algorithmique, trop techniques pour être résumées ici, et qu’on trouve publiées dans les comptes-rendus des célèbres et très sélectifs congrès annuels ISMB, RECOMB et GIW par exemple. Bien vite se pose la question biologique : si l’on observe des répétitions exactes ou floues, quelle est leur signification biologique ? On peut y voir ou bien la trace d’événements passés, pas encore effacée, le résultat d’erreurs dans la réplication de l’ADN, ou, tout au contraire (ou en plus), le résultat d’une pression sélective particulière qui en favorise l’émergence ou le maintien. En effet une répétition correspond à la répétition d’un élément architectural (une portion de l’ADN), mais aussi, souvent, à la répétition d’un élément au sein du produit spécifié par le programme génétique, une protéine. Une répétition peut n’avoir qu’une signification de “remplissage”, mais, comme on le voit lorsque “les poules du couvent couvent”, répétition ne signifie nullement redondance… La conclusion de ces très (trop?) nombreux travaux est ici bien claire : il est essentiel d’associer de la connaissance biologique à l’étude mathématique pour lui donner de l’intérêt. La mathématique des génomes, en premier lieu, doit être motivée par des questions biologiques." [La Mathématique e(s)t la vie]

En bref les biologistes parlent sans cesse d'"information", sans bien préciser ce dont il s'agit. Une réflexion approfondie nous conduit à voir la cellule comme une Machine de Turing , ce qui paraît sans doute assez naturel à ceux qui ont de l'inclination pour l'abstraction (cela sera détaillé plus loin). Cette vue se complète désormais par une réflexion plus profonde sur la Nature même (Physis), et c'est là que le statut de la Mathématique apparaît tout d'un coup central. Pas du tout à la manière pythagoricienne ou platonicienne, mais bien comme un élément de la Nature !

La mathématique est ce qui traite, pour l'essentiel, et presque uniquement, de ce cinquième élément du Réel. C'est ce qui explique l'irruption du calcul (des concepts associés à tout ce qui est "algorithme") au cœur même de la mathématique,même en regard de tout l'effort parallèle de l'axiomatisation des choses (le débat continue à ce sujet). La mathématique n'est donc pas vraiment un monde à part, mais la partie de la science qui s'articule pour l'essentiel autour de l'exploration de l'information dans la Nature. La physique classique ne s'en soucie pas, la physique quantique commence à le faire, la chimie sans doute un peu plus, la biologie considérablement, et la mathématique enfin presque exclusivement.

On a donc une classification "comtienne" un peu différente (matière ici prend le sens de la catégorie "masse") :

information

avec une part croissante de l'information, et décroissante de masse / énergie / espace / temps. Il doit rester cependant "temps" en mathématique, car bien des démonstrations reposent sur une séquence de procédures (cf l'abandon de certains axiomes permettant d'aller explorer très loin dans la récurrence, par exemple, en Analyse Non Standard).

On notera ici que ce postulat particulier — l'introduction d'une nouvelle catégorie — a un rôle essentiellement heuristique. Il permet de traiter de chaque entité du Réel en lui associant un caractère lié à chacune des catégories retenues. Il va de soi que si, dans un effort ultérieur, on pouvait réduire cette cinquième catégorie à une convolution des quatre catégories standards la situation ne serait pas fondamentalement modifiée. On remarquera toutefois à nouveau que le fait même que les quatre catégories centrales soient liées par la fameuse équation E = mc2 n'invalide pas l'intérêt de les considérer chacune comme authentique. Ce qui reste à faire, dans ce contexte, est de trouver un équivalent de cette formule où la catégorie "information" se trouverait insérée. L'objectif expérimental associé est de découvrir l'articulation entre la création d'information et les quatre catégories en cause, ce qui introduit le contexte, et par conséquent la signification d'une fonction, ou d'un programme.

Valeur d'une information

Ce n'est pas le lieu ici de développer l'état actuel des théories de l'information. Elles sont, pour l'essentiel, fondées sur la réflexion de Claude Shannon à propos de la communication de messages formés de suites séquentielles de symboles au travers d'un canal bruité. Cover et Thomas donnent un bon résumé (en anglais) de la situation [Elements of information theory]. Ce qui importe cependant est de comprendre combien elles sont insuffisantes. Nous le verrons le concept classique repose sur le modèle conceptuel de la Machine de Turing, qui s'intéresse au sort de suites de symboles (données/programme) lus, interprétés et modifiés par une machine au fonctionnement très simple. L'information, au sens classique, est celle des données/programme. On ne s'intéresse pas à l'origine, ou à l'information nécessaire à la construction et au fonctionnement de la machine. Et plus généralement l'information est considérée comme une donnée, sans tenir compte de son usage possible (par la machine, et par d'autres entités possibles), et par conséquent sans valeur. L'un des objectifs centraux de la vision proposée dans l'ensemble des travaux exposés ou référencés dans ce site est, au contraire, de rechercher ce que pourrait être la valeur d'une information.

L'idée centrale qui cherche une représentation adéquate est que c'est la compréhension de ce concept de valeur d'une information qui permet à la catégorie "information" du Réel de s'articuler avec les quatre autres catégories, masse, énergie, espace et temps. C'est au travers d'approches expérimentales utilisant les organismes vivants comme sondes de l'interaction entre les quatre catégories standard du Réel et l'information que nous allons procéder.

Sélection Naturelle et Immortalité

Tous les organismes – bactéries incluses – vieillissent et meurent. En raison de l'incroyable diversité de ce processus, c'est un lieu commun de considérer que vieillir est un paradoxe et que, si nous en avions les moyens techniques il nous serait possible de devenir immortels. Ce vieux phantasme a suscité nombre de discussions enflammées destinées à mettre au jour la variété des causes et des mécanismes impliqués dans le vieillissement. Dans ce contexte, l' « immortalité » est considérée comme la norme. Nous allons prendre ici le chemin exactement opposé. Considérant que le vieillissement est une conséquence directe de la physique — et c’est en effet l’une des conclusions majeures à laquelle parviennent ceux qui analysent le vieillissement quand ils repensent les théories de l'avalanche d’erreurs d'Orgel — nous observons que c'est l'immortalité (au moins sous la forme que nous observons dans le cancer) qui soulève un paradoxe. Ce paradoxe ne dérive pas d'une difficulté conceptuelle à trouver un compromis entre les inévitables erreurs et la fidélité des processus biologiques. Non, le paradoxe que nous évoquons ici provient de l'observation simple, universelle, remarquable et pourtant peu relevée, que « les bébés naissent très jeunes ». Or les nouveaux-nés proviennent d'organismes âgés. Cela mérite donc une explication qui ne peut pas être banale.

Suivant une attitude tombée en désuétude (voir le rôle du What is life? de Schrödinger à l'origine de la biologie moléculaire) nous plaçons, comme nous l'avons vu plus haut, les processus du vivant dans le champ de la physique. Cela aboutit à proposer l'information comme cinquième catégorie du Réel, se superposant aux quatre catégories traditionnelles : matière, énergie, espace et temps , et non pas seulement la résultante des propriétés des quatre autres. Si l’on accepte le modèle de la cellule comme « ordinateur fabriquant des ordinateurs », cette conjecture rend bien compte de la séparation entre le programme génétique, qui se réplique, et la machine qui lit le programme, qui se reproduit. De fait, alors que le génome d'une cellule-fille tend à être la réplique de celui de sa parente, les cellules-filles ne sont pas des répliques des cellules-mères, y compris dans le cas des cellules eucaryotes après la mitose. Nous montrons en analysant le fonctionnement génétique des bactéries, organismes unicellulaires, comment l'information peut se relier en termes explicites aux quatre catégories standard. Pour cela nous avons identifié un certain nombre de fonctions (et leurs gènes associés) et des processus qui pourraient être à l'œuvre dans tous les organismes vivants, leur permettant d'exploiter l'information de sorte que la création et l'accumulation d'information devienne un processus central de la formation d’une succession temporelle pérenne d’organismes vivants.

Bref survol des idées sur le vieillissement

Notre vision anthropocentrique du Réel nous a conduits à étudier le vieillissement chez les organismes où certains individus possèdent une lignée germinale et propagent l'espèce, alors qu'en tant qu'individus ils vieillissent et meurent. Ici, nous essayons de rendre compte de ce phénomène de manière beaucoup plus générale (rappelons qu’au moins 50% de la biomasse sur Terre est constituée de microorganismes), et nous recherchons les relations qu'entretient le vieillissement avec les contraintes générales qui opèrent sur tous les être vivants, et que nous connaissons sous le nom de Sélection Naturelle. C'est avec cet objectif que nous commençons notre étude au niveau le plus élémentaire du vivant : l'échelle moléculaire.

On envisage souvent la sénescence comme un processus lent, mais l'analyse chimique des protéines montre que beaucoup d'entre elles vieillissent très vite, même en l'absence des causes les plus couramment invoquées dans le vieillissement, comme les dégâts dus aux dérivés réactifs de l'oxygène (le « stress oxydant »). De fait, une des raisons majeures du vieillissement des protéines est l’isomérisation spontanée de deux acides aminés, l'aspartate et de l'asparagine, qui conduit à la présence de résidus isoaspartate dans le squelette des protéines et le déforme.

isoaspartate

Chez de nombreux organismes, notamment l’Homme, ce processus est contrecarré par un système de réparation très énergivore. Chez les bactéries, l'isomérisation de l'aspartate est si rapide dans certaines protéines (quelques minutes), qu’on peut penser que cette isomérisation appartient à la fonction normale de la protéine. Durant la phase stationnaire, les résidus d'isoaspartate s'accumulent en nombre considérable, et une grande proportion des protéines est affectée dès 24 h de croissance. Or l'idée reçue est que les bactéries qui se divisent par scission en leur milieu ne vieillissent pas, du moins durant leur phase de croissance exponentielle. C'est un truisme présent dans la plupart des manuels scolaires. Cependant les bactéries vieillissent bien, même lorsque la division semble symétrique. Une indication supplémentaire de l'importance de ce processus moléculaire a été découverte chez des organismes vivant dans des environnement extrêmes. L'isomérisation dépend de la température, et de fait, les résidus asparagine sont enrichis chez les psychrophiles [1].

Ainsi, tous les organismes sont composés de structures d’âge divers. Cela implique que les organismes nouveaux naissent toujours d’organismes vieillis, parfois comme mosaïque de structures jeunes et anciennes. Ce vieillissement a plusieurs types de conséquences structurales, soit dans la formation de cellules-filles plus ou moins identiques, particulièrement quand la division semble superficiellement symétrique (ce qu'elle n'est pas) soit dans la formation d'une cellule-mère portant l'essentiel sinon l'ensemble des vieilles structures. Ce processus inévitable mène au paradoxe que des structures biochimiques âgées (les protéines ribosomiques vieillissent, et cela pourrait avoir d'énormes conséquences puisque les ribosomes sont les usines centrales de fabrication de protéines) dirigent la synthèse des jeunes protéines.

Reproduction ou réplication ?

Dans ces réflexions, les concepts de reproduction et de réplication sont utilisés comme interchangeables. Cela explique que la contrainte centrale proposée comme pierre angulaire du processus de vieillissement soit l'avalanche d’erreurs par effet boule-de-neige. Ce concept implique que, parce que les objets matériels et les processus physico-chimiques ne peuvent conserver indéfiniment leurs qualités initiales, il doivent être entretenus, réparés ou répliqués en entités identiques pour remplacer ceux qui ont vieilli. Qu'une amélioration puisse se manifester au cours du temps, plutôt qu'une dégradation ou une stabilisation comme on peut le constater avec la reproduction, n'est pas pris en compte. Dans sa réflexion sur l’origine de la vie, en un temps où les processus biochimiques ne pouvaient être aussi précis qu'aujourd'hui, Dyson a montré qu'alors que la réplication mène inévitablement à l'avalanche catastrophique des erreurs, la reproduction, quant à elle, n'est pas condamnée à des processus toujours moins efficaces, mais peut au contraire progressivement améliorer son efficacité. En bref, la vie ne peut avoir une seule origine, et l'ordre des événements n'est pas quelconque : la reproduction précède nécessairement la réplication. Le cœur mathématique de son modèle montre que des métabolismes prébiotiques peuvent devenir de plus en plus précis, avant de découvrir la réplication. Nous explorons ici le dialogue entre reproduction et réplication, en fondant notre réflexion sur la structure des génomes bactériens et en analysant comment se fait au niveau moléculaire le lien de cette dernière avec le processus de vieillissement. Le cœur de l'argument montre combien l’association de l’analyse moléculaire du vieillissement et la théorie de l'information conduit à des hypothèses concrètes, expérimentalement testables.

Faire des jeunes à partir de vieilles entités implique la création ou la récupération d'information.  La physique et la biologie sont des domaines séparés, mais la seconde repose sur les contraintes imposées par la première. Il est donc naturel de placer la biologie dans le contexte des développements les plus récents de la physique pour proposer des expériences qui nous conduiraient à comprendre en profondeur les questions biologiques les plus importantes. Revisitons donc les concepts de la théorie de l'information, mentionnée déjà à plusieurs reprises avec le point de vue algorithmique qui souligne la nature profonde de ce que représente le programme génétique.

La création d'information est réversible

Depuis sa première formalisation comme théorie de la communication, le concept d’information a gagné en profondeur dans le cas des séquences de symboles, typiques de ce que nous trouvons dans les génomes . Ce concept est développé à partir des catégories habituelles du Réel, via la physique statistique. Longtemps, on a postulé que la création d'information nécessitait de l'énergie. Cette intuition, centrale pour l’implémentation concrète du calcul automatique, impliquait l’énergie dans le processus même du calcul, et supposait que le calcul allait coupler transferts d’information et transferts de chaleur dans les ordinateurs. C'était d'autant plus préoccupant qu’on faisait des prouesses technologiques pour rendre de plus en plus petites les structures physiques du calcul, pour un calcul de plus en plus rapide.

On ne s’étonne donc pas de trouver l'ingénieur Rolf Landauer, qui travaillait chez IBM à l'intégration de portes logiques dans ce qui deviendra le microprocesseur (il est le père de la technologie C-MOS), comme acteur central. Dans un article encore largement ignoré même des informaticiens, Landauer montra que la création d'information, contrairement à ce qu'on pensait à l'époque, était réversible et n'impliquait donc pas de consommation d'énergie. Pourtant, si la création d'information était réversible, son accumulation était difficile, et demandait l'effacement d'une mémoire où toutes les étapes intermédiaires sont recueillies. Cet effacement nécessitait de l'énergie, d'un montant semblable à celui qu'avait prévu Szilard. En bref, la création d'information peut parfaitement avoir lieu dans les systèmes physiques et ne contredit aucun principe [2] . Mais comme l'information est créée via un grand nombre d'étapes qui occupent une grande part de l'espace ou d'états d'énergie, ou encore sont très lents, la question n'est pas sa création mais sa récupération dans un océan d'états non informatifs. Effacer la mémoire au hasard risquerait d'effacer aussi bien ce qui est informatif que ce qui ne l'est pas. Il faut donc un processus spécifique qui sache mesurer la valeur d'une information, concept non classique de la théorie courante de l'information. C'est ce concept qui est au cœur de ce que nous appelons « biologie symplectique », avec l'idée centrale de contexte, ou de situation, comme descripteur fondamental.

Avec ce raisonnement, l'évolution des organismes vivants se reformule en la question suivante : que doit-on retenir pour l'évolution subséquente parmi la variété des éléments présents à un instant donné ? Ou encore : si l'on considère la création d'information comme un authentique principe de la physique, quel est le principe associé qui fait émerger les entités qui ont accumulé de l'information ? Comme ce processus nécessite que l'on distingue quelques entités au sein de l'ensemble, c'est un processus de criblage. Comme ce processus nécessite que de la place soit faite pour que ces entités s'accumulent, c'est un processus sélectif. Ainsi, la physique de n'importe quel système produisant de l'information ne peut fonctionner sans un processus de sélection. En résumé, la Sélection Naturelle est un authentique principe de la physique. Elle doit cependant obéir à des règles spécifiques qui doivent être formalisées.

La sélection naturelle est un principe nouveau mais directement issu de la physique

Cela dit, il faut comprendre comment la Sélection Naturelle - concept biologique – fonctionne en termes de physique. Nous développons ici les principales directions pour lesquelles il existe au moins une solution expérimentalement testable, et qui semblent opérer à plusieurs niveau dans les systèmes biologiques. Nous l'illustrons dans le cas des bactéries. L'idée de base est de suivre la deuxième partie du théorème de Landauer-Bennett, qui veut que l'effacement d'une mémoire (ici à leur théorie, nous ajoutons "sans valeur", avec la conjecture que c'est une certain mesure de la valeur qu'il conviendra de prendre en compte) nécessite de l'énergie, et d'identifier en parallèle des processus physico-chimiques dans la cellule qui nécessitent de l'énergie d'une manière que l'intuition n'attendrait pas, afin de faire émerger ceux qui sont pertinents.

La création d'information nécessite de nombreuses étapes, en partant d'un complexe donné d'entités en interaction dynamique, qui se transforment progressivement en variants, au sein desquels quelques uns ont un plus grand contenu en information que le complexe initial. (Quelques uns de) ceux (ces entités peuvent être des objets physiques, mais aussi de processus, comme des flux métaboliques) qui ne sont pas pertinents en terme d'accroissement d'information doivent être détruits pour faire de la place à ceux qui portent plus d'information. Dans ce cadre conceptuel, le processus de destruction - la Sélection Naturelle – ne peut pas être simplement identifié au vieillissement, ou quelque autre altération suivie d'une fragilisation et d'une dégradation. Il doit, au moins de temps en temps, pouvoir discriminer activement les entités qui sont fonctionnelles dans une certaine mesure de celles qui ne le sont pas, en quelque sorte mesurer leur valeur. Cela parce que le processus doit éviter de détruire les éléments qui portent plus d'information. C'est là que l'énergie entre en jeu. L'énergie doit être consommée de sorte que les innovations sortent du lot, dans un processus discriminant : l'énergie est utilisée pour empêcher la dégradation des entités fonctionnelles et permettre la destruction de celles qui ne le sont pas.

Notons qu'avec cette vision, dans un système fini, la Sélection Naturelle ne peut être aléatoire ou neutre. En revanche elle agit très localement, sans dessein général. En d'autres termes, de simples systèmes dégradatifs ne seront pas suffisant pour avoir le rôle attendu pour l'accumulation d'information. La conséquence à long terme serait l'inévitable dérive vers l'inefficacité fonctionnelle. Parce qu'elle nécessite de l'énergie pour fonctionner, la Sélection Naturelle peut retenir ou recruter des entités fonctionnelles : cette observation explique en partie la controverse qui entoure cette notion, usuellement considérée comme purement passive (voir cependant la très répandue « sélection du plus apte » spencérienne qui postule implicitement des mécanismes permettant la comparaison entre organismes aptes et non aptes). Les implication profondes de la conjecture qui vient d'être exposée ne peuvent pas être discutées dans cette brève introduction. Pour comprendre la Sélection Naturelle, nous devons considérer spécifiquement les étapes destructives (sélectives !) qui sont associées à de la consommation d'énergie et identifier parmi elles celles qui sont ont à voir avec l'information.

En accord avec ce raisonnement, on trouve dans les processus centraux qui règlent le cœur de la biologie moléculaire, l’expression des gènes, plusieurs processus qui servent à l'amélioration de la qualité d'une information. Notant qu'une conséquence de l'inévitable bruit créé par les fluctuations thermiques serait l’apparition d’un taux d'erreurs insupportable dans la synthèse des protéines, Hopfield et Ninio ont analysé les étapes essentielles de la traduction des ARN messagers en protéines en suivant un schéma conceptuel voisin de ce que nous venons de voir. Ils proposent l'idée suivante pour expliquer la remaquable précision du processus de traduction, où déchiffrer le code génétique sans une étape sélective consommatrice d'énergie conduirait à un taux d'erreur résultant en la synthèse de protéines inactives. Le processus de décodage proprement dit (à chaque codon correspond un acide aminé spécifique) ne peut éviter les erreurs (en gros, à la température de 300 kelvins, une erreur pour mille succès). Ce serait insupportable, et cela ne correspond pas à l’observation, qui montre peu d’erreurs. Il existe donc au cours de la traduction (c’est vrai aussi de toutes les étapes de l’expression des gènes) des étapes de correction qui disent si oui ou non un acide aminé correct est chargé sur l'ARN de transfert et si un codon correct est déchiffré. Ces mécanismes rejettent l'objet erroné des interactions cibles et consomment de l'énergie. L'idée de base proposée par Hopfield et Ninio est simple, comme le montre une expérience de pensée proposée par Maurice Guéron. Dans un bassin où nagent des poissons rouges et noirs, nous souhaitons attraper (presque) exclusivement des poissons rouges, sachant que, quand ils sont emprisonnés dans un filet dont les mailles sont de la taille d'un poisson, les poissons noirs réagissent rapidement et réussissent à sortir alors que les poissons rouges sont beaucoup plus lents à s'échapper. L'idée est d'utiliser un filet, d'attraper les poissons (autant de rouges que de noirs) et d'attendre avec le filet suspendu au dessus du bassin (ni trop, ni trop peu) et de le placer ensuite sur le bord, en récupérant les poissons : la plupart seront rouges. C'est clairement une procédure sélective consommatrice d'énergie, et de gain d'information.

On généralise cette idée de la manière suivante. Un système biologique synthétise des objets  particuliers (ARN, protéines, métabolites) et des processus (voies métaboliques) dont certains sont précis, d'autres sont des variants, notamment quand ils vieillissent. Malgré ce manque d'exactitude, un système vieilli va généralement continuer à exprimer des voies métaboliques et engendrer des nouveaux systèmes, de sorte que de vieux objets en donnent de nouveaux. Une partie des objets âgés peut être rejetée par une série de processus de dégradation ou déposés dans des structures « poubelles » mais le système doit savoir trier ces objets ou processus et conserver ceux qui fonctionnent. Je fais l'hypothèse que ce type de sélection requiert de l'énergie, pour éviter de détruire ce qui fonctionne. Si cette hypothèse est correcte, nous devrons alors identifier les gènes codant les objets correspondants. En résumé, comme le reconnaît Dyson quand il modélise les origines de la vie, la reproduction peut accroître l'information portée par le système. Cet accroissement est progressif et procède par un « effet de cliquet » qui va progressivement accumuler des objets informatifs (fonctionnels) au sein d'un groupe d'objets qui dans ce contexte particulier, peuvent peut-être être considérés comme du rebut, mais ne sont certainement pas du gaspillage [3]. Accumuler les objets pertinents nécessite que de la place soit faite. Faire de la place nécessite la destruction de certains des objets en place, mais pas de manière aléatoire, car les objets fonctionnels (quels qu'ils soient) doivent être préservés de la destruction.

La caractéristique la plus importante de la présente conjecture, qui diffère des modèles proposés jusqu'ici habituellement destinés à proposer des scénarios pour l'origine de la vie, suppose un processus qui, utilisant de l'énergie, sélectionne dans le mélange celles des entités qui doivent préférentiellement ne pas être détruites. La différence entre une entité fonctionnelle et une entité qui ne l'est pas, est que la première peut être engagée dans des complexes ou dans des processus métaboliques [4]. Nous postulons que lorsque cela a lieu, l'entité (objet ou processus) a des caractéristiques – par exemple un flux métabolique particulier, de la rigidité, une conformation spécifique comme un isomère de proline, l'absence d'isoaspartate dans les protéines etc – qui peuvent être identifiées par la machinerie de dégradation. En utilisant une source d'énergie, ces entités sont rejetées par la machinerie, et donc demeurent intactes. A l'opposé, les entités qui ne sont pas engagées dans un complexe ou dans un processus métabolique sont dégradées.

Ce scénario est l'exact équivalent du processus de correction cinétique des erreurs de Hopfield-Ninio. Notons que cela signifie que les systèmes de dégradation sont de deux sortes. Certains ne nécessitent pas d'énergie pour fonctionner, et certains oui. Seuls ces derniers sont utilisés directement dans le processus de création de l'information, le seul processus qui peut conduire à l'immortalité d'une filiation. Cela est compatible avec le rôle de la mitose dans les divisions cellulaires somatiques et convient à l'idée que la multiplication cellulaire dilue les objets endommagés, avec une réserve : la dilution , en tant que telle, ne serait pas suffisante pour permettre l'immortalisation en raison des fluctuations thermiques inévitables qui conduiraient à de larges déviations par rapport à la moyenne.

Organisation comparée des génomes bactériens

Jusqu'ici nous avons proposé ce modèle de manière abstraite. Il faut donc voir comment identifier dans les génomes des fonctions explicitement reliées à ces processus. S'il y a gestion d'information, elle doit s’articuler avec les catégories usuelles du Réel, matière en particulier. Plus précisément, il nous faut identifier, parmi ces fonctions, celles qui codent les processus consommateurs d'énergie que nous avons imaginés. En vue de cet objectif, nous bénéficions de la masse considérable des séquences génomiques désormais disponibles. Cependant, une difficulté pratique empêche la comparaison directe entre tous les génomes, à la recherche de celles qui sont ubiquistes. En effet, une même fonction peut être remplie par différents objets, et les fonctions ubiquistes sont souvent exprimées par des produits de gènes d'origines différentes : l'évolution thésaurisante [5] est une propriété générale de la biologie. Même si certaines fonctions sont ubiquistes, nous ne ne pouvons pas penser que les gènes correspondants le seront. Heureusement, comme les organismes dérivent les uns des autres via une filiation, un objet qui a été sélectionné parce qu'il accomplit une fonction va tendre à persister au fil des générations. Cela nous permet d'identifier des gènes persistants, c'est à dire des gènes présents dans un ensemble de génomes mais non nécessairement dans tous (Fang et al 2005). Connaître ces gènes nous permet alors d'identifier les fonctions ubiquistes qu'il nous faut prendre en considération comme essentielles à la vie.

L'analyse de la conservation du regroupement des gènes révèle un caractère remarquable : les gènes rares, d'une part, et les gènes persistants, d'autre part, tendent à rester groupés, donnant deux familles très cohérentes, séparées par une large zone floue. De plus, le réseau de connexion des gènes persistants nous rappelle un scénario des origines de la vie, ce qui nous a conduit à le nommer paléome (du grec παλαιος, ancien). Ce paléome est constitué d'environ 500 gènes, qui tendent à la fois à persister dans les génomes et dans la manière dont ils se groupent à l'intérieur des génomes.

Ce lot de gènes est fait de deux sous-ensembles de taille approximativement équivalente qui diffèrent par la manière dont ils peuvent être inactivés avec ou sans perte de capacité à permettre la formation d'une colonie viable. Les gènes essentiels (qui ne peuvent être inactivés sans perte de la capacité à vivre) contribuent à la construction de la cellule et à la réplication du génome. Le reste est constitué de gènes non essentiels, mais persistants. Ces gènes ne sont pas strictement essentiels, puisqu'ils peuvent être inactivés sans perte totale de viabilité (du moins à l'échelle du laboratoire). Ils codent des fonctions annotées comme nécessaires à la maintenance et à la réparation, aussi bien que des voies métaboliques spécifiques. L'analyse du paléome suggère donc que nous devrions distinguer deux processus différents, tous essentiels à long terme mais avec des contributions différentes à court terme : la dernière catégorie de gènes semble contribuer à la perpétuation de la vie plus qu'à la permettre en tant que telle. Des expériences préliminaires sont en adéquation avec cette manière de voir : la capacité de croissance des souches où des gènes de la seconde catégorie ont été inactivés diminue rapidement avec le temps.

Produire de l'information via un processus de dégradation qui utilise de l’énergie

Une question centrale à laquelle il nous faut répondre vise à identifier le noyau des processus métaboliques utilisés pour permettre la sélection de structures jeunes dans un organisme âgé. Le processus d'accumulation d'information décrit ici doit produire un résultat riche en information dans un grand nombre de situations. Pour comprendre la stabilisation sélective de l'information nouvelle au cours de la reproduction, nous devons donc identifier des étapes spécifiques de destruction, associées à une étape consommatrice d'énergies. Cela implique que des processus spécifiques  mettent en action la capacité métabolique de l'organisme. Peut-on les découvrir dans la composante non-essentielle du paléome ?

A ce stade, nous remarquons que deux facettes de notre hypothèse, liées l'une à l'autre, nous permettraient d'identifier les élements que nous cherchons. D'une part, nous devons trouver les gènes qui correspondent au processus énergivore nécessaire pour accumuler l'information au cours de la reproduction. D'autre part, nous avons un lot de gènes persistants, qui correspondent par conséquent à des fonctions ubiquistes auxquels nous devons assigner un rôle majeur dans la cellule. L'analyse de cette dernière classe de gènes nous montre que plusieurs de leur fonctions impliquent la consommation d'énergie. Une question centrale demeure néanmoins. Celle de l'origine de la source d'énergie qui sera utilisée pour les les processus d'accumulation de l'information. Ici encore, l'analyse du paléome nous fournit un hypothèse très intéressante et vraiment inattendue. En effet, parmi les gènes non essentiels du paléome se trouvent les gènes qui métabolisent le polyphosphate (poly(P)). Généralement supposé jouer le rôle de stockage du phosphate, le poly(P) est une source d'énergie potentielle ubiquiste systématiquement associée à la dégradation de l'ARN. Le poly(P) a été détecté en quantités variables dans tous les organismes testés à ce jour.

Quand les cellules vieillissent, dans des circonstances où les ressources en nutriments sont limitantes par exemple, les ressources en énergie de la cellule seront épuisées. En particulier, on ne peut attendre que le donneur d’énergie universel, l’ATP soit suffisamment stable pour que sa concentration soit maintenue longtemps. Un minéral serait une ressource particulièrement stable, et c'est exactement ce qui pourrait expliquer l'omniprésence du poly(P). Le rôle de ce minéral n'a pas encore été exploré sous ce rapport.

Conclusion provisoire

Les réflexions générales sur la vie ou le vieillissement ont accordé plus d'importance à la réplication qu'à la reproduction dans le déroulement de la multiplication cellulaire, et ont souvent considéré ces processus comme interchangeables. Cela a conduit à une interprétation des processus de maintenance et de réparation comme essentiels pour la prolongation de la vie des individus parce qu'ils préservent aussi longtemps que possible leur intégrité. Mais cela n'a aucunement impliqué ces processus dans la perpétuation de la vie. D'autres réflexions, dans le cas des organismes les plus complexes, ont cependant séparé le rôle de la reproduction de celui de la réplication, et ont montré que les fonctions de maintenance et de réparation devaient être conceptuellement séparées de celles impliquées dans la reproduction. Les vues les plus communes sont fondées sur l'interprétation spencérienne du darwinisme comme « sélection du plus apte », où la maintenance et la réparation sont systématiquement associées à des processus compétitifs permettant le prolongement de la vie aux dépens de la fertilité. Nous avons tenté ici de montrer qu'il fallait aller plus loin, et que le rôle de l'utilisation de l'énergie au cours de certains processus dégradatifs n'était pas anecdotique, mais était associé à un mécanisme efficace d'accumulation d'information, spécifique de la reproduction.

En dehors des quelques travaux qui explorent les questions liées à l'origine de la vie ou aux processus conduisant à l'effet boule de neige de l'avalanche d'erreurs, la plupart des réflexions sont fondées sur l'analyse du vieillissement chez les organismes multicellulaires. Nous avons essayé ici, à la lumière de la démonstration récente que les bactéries vieillissent et que des entités âgées doivent produire des entités jeunes, d'explorer la dualité reproduction / réplication en la reliant à notre connaissance de l'organisation des génomes bactériens. Cette approche capte dans son essence le fait que des processus généralement interprétés comme impliqués dans la réparation servent à récupérer, et même créer puis accumuler un contenu en information neuf. Nous avons tenté de montrer que l’analyse des propriétés de la gestion de l'information dans les systèmes matériels, conduit à voir les organismes vivants comme aptes à accumuler de l'information. En accord avec l'observation que la réplication ne pourrait pas exister à l'origine même de la vie sans intervention extérieure, j'ai exploré dans le cas des bactéries les conséquences d'un processus de reproduction capable de créer et retenir de l'information nouvellement créée ; en particulier nous avons établi qu'un système soumis au trio variation-sélection-amplification peut accumuler de l'information (au sein d'objets matériels ou de processus dynamiques) quand le processus de sélection consomme de l'énergie dans une étape qui discrimine entre des interactions stables et instables. Dans certains cas, cela passe par un processus qui accumule les composants âgés dans la cellule mère comme chez la levure Saccharomyces cerevisiae. Dans d'autres cas, comme chez les bactéries à division rapide, les structures âgées se concentrent aux pôles, conduisant progressivement à des cellules âgées qui meurent, alors que les jeunes cellules continueront à se multiplier. S'il y a immortalité, c'est l'immortalité du lignage (et aucun lignage ne reste éternel, cependant), pas de l'individu.

Un remarque compléte cette réflexion, et souligne la « myopie » du processus sélectif proposé (qui ne voit que ce qui le concerne directement, et n'a donc aucune vision d'ensemble). Ce processus, qui accumule de l'information dans au moins un des membres de la descendance cellulaire, a l'avantage considérable de créer les conditions de l'accumulation de n'importe quel type d'information qui pourrait avoir été recrutée ou récupérée(par exemple par un transfert génétique horizontal, ou l'expression d'un gène) ou même créée de novo. Puisqu'elle est fondée sur la « mesure » de la qualité d'une interaction (via sa stabilité, locale) ce processus va construire progressivement des systèmes qui accumulent de l'information, typiques de ce qu'on observe dans l'évolution des êtres vivants. Une conséquence notable est qu'il n'est pas paradoxal que certaines branches évoluent, sans direction prévisible, vers des formes progressivement plus élaborées (la découverte de la multicellularité est un de ces événement remarquables). Il conduit aussi, en raison de sa myopie, à ne pas distinguer la qualité d'ensemble de ce qui est retenu : pourvu qu'une entité soit fonctionnelle localement, elle est retenue, et c'est ce qui rend compte de l'aspect « bricolé » de bien des entités biologiques.

Plutôt que de dériver simplement une justification conceptuelle de la conjecture proposée, voici une validation concrète qui peut être soumise à la rigueur de la réfutation expérimentale. Il devient en effet intéressant de réévaluer entièrement la découverte des mutations « adaptatives », qui ont tant causé de polémiques il y a vingt ans quand elles ont été interprétées (à tort) comme suggérant une évolution lamarckiste et de s'en servir comme dispositif expérimental. Ces mutations ont la propriété de faire apparaître a posteriori dans la descendance d'un organisme des propriétés nouvelles qui sont absentes de la population initiale, mais qui apparaissent de façon aléatoire après un certain temps chez un petit nombre de descendants et permettent leur développement adapté dans des conditions où leurs ancêtres ne le pouvaient pas. C'est ce qui donne l'impression d'une orientation des mutations observées par le milieu. L'implémentation du processus sélectif que nous conjecturons comme nécessaire à l'accumulation d'information requiert un ensemble intégré d'objets, typiquement de ceux qui sont codés par le lot des gènes persistants des génomes bactériens, le paléome. Nous avons identifié certains des gènes pertinents du paléome et fait l'hypothèse qu'une source majeure d'énergie impliquée dans le système d'accumulation de l'information pourrait être le polyphosphate, minéral ubiquiste dans les cellules. Nous comprenons comment une vieille cellule, utilisant de l'énergie de façon à éviter de dégrader ce qui est fonctionnel, peut renouveler sa machinerie en faisant de la place, pour remplacer les entités usagées par de nouvelles entités. Le génome, qui lui aussi a vieilli durant la période considérée, est sollicité pour de nouvelles synthèses. Si, parmi les objets maintenant codés de façon erronée (en raison du vieillissement du génome), et destinés à remplacer les objets dégradés, se trouve un objet fonctionnel, la cellule va utiliser son stock d'énergie et éviter de le détruire. Cette nouvelle fonction lui permettra alors de produire une descendance. Ainsi — si la conjecture est valide — l’inactivation de ces gènes devrait suffire à empêcher la production de mutations adaptatives.

Une conséquence remarquable de ce scénario est qu'il est très semblable à celui du déclenchement du processus cancéreux : un phénomène similaire à celui des mutations adaptatives pourrait permettre à des cellules souches de découvrir des voies conduisant à leur immortalisation. Il sera intéressant d'identifier les équivalents des gènes du paléome chez les eucaryotes, et de voir comment leur rôle (incluant le métabolisme du polyphosphate) pourrait être impliqué dans le démarrage du cancer. On notera aussi que ce processus s'étend aux domaines de la physique et de la chimie, pas seulement au simple domaine des organismes vivants, et que cela pourrait s'appliquer, avec les aménagements appropriés, à la question de l'origine de la vie dans une perspective complémentaire et qui rénove celle de Dyson.

A partir d'un raisonnement fondé sur le renouvellement de la théorie de l'information, nous proposons de considérer ce que nous nommons « Sélection Naturelle » comme étant le processus de piégeage de l'information, processus qui devient alors un authentique principe de la physique. A notre sens, il est remarquable, mais non inattendu, que cette vue vienne au jour au moment où la physique classique et la physique quantique se sont réconciliées grâce à une vision renouvelée de la théorie de l'information. Cela ne doit pas être une coïncidence (historiquement, des idées liées tendent à apparaître simultanément partout). Comme le notait Steane : « Historiquement, une bonne partie de la physique fondamentale a été concernée par la découverte de particules fondamentales de la nature et des équations qui décrivent leurs mouvements et leurs interactions. Il apparaît désormais qu'un programme différent pourrait être tout aussi important : découvrir comment la nature permet ou interdit à l'information d'être exprimée ou manipulée, plus que comment les particules se meuvent ». Nous espérons avoir incité le lecteur à étendre cette façon de voir au champ de la biologie.

Références

Aguilaniu H, Gustafsson L, Rigoulet M et al (2003) Asymmetric inheritance of oxidatively damaged proteins during cytokinesis. Science 299:1751-1753.
• Bennett C (1988) Notes on the history of reversible computation. IBM Journal of research et development 44:270-277.
• Brown MR et Kornberg A (2004) Inorganic polyphosphate in the origin et survival of species. Proc Natl Acad Sci U S A 101:16085-16087.
• Cairns J, Overbaugh J et Miller S (1988) The origin of mutants. Nature 335:142-145.
• Clarke S (2003) Aging as war between chemical et biochemical processes: protein methylation et the recognition of age-damaged proteins for repair. Ageing Res Rev 2:263-285.
• Cover T et Thomas J (1991) Elements of information theory. Wiley, New York
• Danchin A (1996) Dai minerali alla vita. Prometeo 54:16-21.
• Danchin A (2003) The Delphic boat. What genomes tell us. Harvard University Press, Cambridge (Mass, USA)
• Danchin A (2007) Archives or palimpsests? Bacterial genomes unveil a scenario for the origin of life. Biological Theory 2:52-61.
• Danchin A (2009) Bacteria as computers making computers. FEMS Microbiology Reviews 33:3-26.
• Dyson FJ (1985) Origins of life. Cambridge University Press, Cambridge, UK
• Fang G, Rocha E et Danchin A (2005) How essential are nonessential genes? Mol Biol Evol 22:2147-2156.
• Guéron M (1978) Enhanced selectivity of enzymes by kinetic proofreading. Am Sci 66:202-208.
Holliday R (2006) Aging is no longer an unsolved problem in biology. Ann N Y Acad Sci
1067:1-9.
• Kirkwood TBL (1977) Evolution of ageing. Nature 270:301-304.
• Landauer R (1961) Irreversibility et heat generation in the computing process. IBM Journal of research et development 3:184-191.
• Lindner AB, Madden R, Demarez A et al (2008) Asymmetric segregation of protein aggregates is associated with cellular aging et rejuvenation. Proc Natl Acad Sci U S A 105:3076-3081.
• Orgel LE (1963) The maintenance of the accuracy of protein synthesis et its relevance to ageing. Proc Natl Acad Sci U S A 49:517-521.
• Steane A (1998) Quantum Computing. Reports on Progress in Physics 61:117-173.
Sterelny K (2001) Dawkins vs. Gould: Survival of the fittest. Icon Books, Cambridge (UK)
• Stewart E et Taddei F (2005) Aging in Escherichia coli: signals in the noise. Bioessays 27:983.
• Stewart EJ, Madden R, Paul G et al (2005) Aging et death in an organism that reproduces by morphologically symmetric division. PLoS Biol 3:e45.
• Szathmary E (2006) The origin of replicators et reproducers. Philos Trans R Soc Lond B Biol Sci 361:1761-1776.
• Yockey HP (1992) Information theory et molecular biology. Cambridge University Press, Cambridge (UK)

* Cette façon de voir a été d'abord proposée par Jean-Pierre Aubin

[1] Ψυχρος signifie froid en Grec. (retour au texte)

[2] On remarquera que cela signifie non seulement que "création" est une propriété du Réel, mais qu'il n'y a aucune contrainte temporelle dans sa mise en œuvre. La création a eu lieu hier, aujourd'hui, et elle aura lieu demain. Il est possible que cette vue révolutionnaire pour une grande famille de religions explique l'obscurité surprenante qui entoure le travail de Landauer. (retour au texte)

[3] Cela implique en particulier qu'il ne saurait exister, dans ce contexte, d'ADN "poubelle" (junk DNA). (retour au texte)

[4] On peut aussi imaginer bien d'autres processus, comme la mesure du temps: la durée de vie d'un objet biologique peut parfaitement, à l'instar de la durée de vie d'un atome radioactif, être associée à une horloge. C'est le cas, par exemple, du processus d'isomérisation de l'asparate et de l'asparagine que nous avons mentionnés plus haut. Il est même possible d'imaginer que le rôle de certains acides aminés (pourquoi vingt, après tout ?) serait de fournir une mesure du temps… (retour au texte)

[5] Nous traduisons ainsi l'anglais "acquisitive", pour indiquer qu'il s'agit d'une accumulation de richesse (en information). (retour au texte)