accueil

François Foulatier - Le roman cosmogonique

Deuxième partie - Genèse des formes (Retour au sommaire)

Chapitre I - Genèse de la forme vivante
Des origines de la vie - Information et morphogenèse - La physique de la vie


INFORMATION ET MORPHOGENESE

L'universalité du code génétique invite à situer à son niveau les principes généraux de l'ordre biologique, par une démarche analogue à celle qui a dégagé de la table périodique des éléments les principes généraux de l'ordre chimique. Il serait tentant d'en déduire les différentes combinaisons, les différents programmes, qui conditionnent l'organisation des différentes espèces, en partant des plus simples pour aller, par degrés, jusqu'aux plus complexes, reconstituant ainsi l'ordre biologique comme résultat d'une vaste combinatoire dont la logique serait inscrite dans le code génétique. À l'origine de la vie, on aimerait trouver un événement définissable, la synthèse d'une substance qui serait la substance vitale par excellence, et un acide nucléique semble tout indiqué pour tenir ce rôle. Mais il n'en est rien : le récit des origines tente d'ordonner un grand nombre d'événements (synthèse abiotique de monomères, polymérisation de macromolécules, formation de coacervats, apparition des premières formes de métabolisme, utilisation de catalyseurs spécifiques, constitution de la membrane, intervention de brins d'acide nucléique pour programmer les synthèses intracellulaires et assurer la transmission invariante du programme au cours de la division cellulaire...) dont aucun n'est décisif à lui seul, puisque c'est de leur addition que résulte l'apparition de la vie. Partis à la recherche de l'origine, nous découvrons la multiplicité des origines.

La vie ne peut être assignée en un lieu unique ; elle s'appuie sur la différenciation de lieux multiples, toujours plus nombreux à mesure que les systèmes vivants deviennent plus complexes, et sur les communications qui s'établissent entre eux. Loin d'être la propriété d'un centre, la vie se présente plutôt comme un phénomène de la périphérie. Les processus vitaux les plus importants ont pour lieux d'élection les frontières où s'opèrent la ségrégation de deux lieux différenciés et la régulation des échanges entre eux. À l'origine de la vie, il y a des phénomènes microscopiques concernant la structure d'acides nucléiques et les modalités de la synthèse des protéines ; or ces phénomènes microscopiques n'ont aucun rôle informatif dans un milieu macroscopique tel qu'un océan ou même une simple mare ; pour qu'ils aient un tel rôle, il faut qu'il existe un récepteur constitué par un système de dimension intermédiaire, formé par compartimentation. Ce récepteur, c'est le vivant. Et, ici comme ailleurs, les processus d'information gagnent à être analysés à partir des récepteurs dans lesquels l'information s'actualise plutôt qu'à partir des programmes et des messages dans lesquels elle n'est que potentielle.

Pour justifier cette assertion, il est nécessaire d'examiner les deux concepts d'information et d'entropie, ainsi que les rapports qui existent entre eux. Rappelons, pour commencer, les deux premiers principes de la thermodynamique (Clausius, 1865) : " L'énergie de l'univers reste constante. L'entropie de l'univers ne peut que croître vers un maximum. " Le premier principe, dit de la conservation de l'énergie, énonce l'équivalence des différentes formes d'énergie (mécanique, thermique, électrique, chimique...) et la possibilité de transformation de l'une dans l'autre, sous la condition fondamentale que la quantité totale d'énergie reste constante dans le système isolé où les transformations ont lieu. Le deuxième principe introduit l'idée d'une hiérarchie qualitative entre les différentes formes d'énergie, en s'appuyant sur le fait que la transformation de l'une dans l'autre n'est pas toujours réversible.

Si l'on place dans une enceinte isolée deux blocs d'une matière quelconque, l'un chaud, l'autre froid, la température du premier diminue, tandis que celle du second augmente, jusqu'à ce qu'elles soient égales ; ce processus est spontané et irréversible : le processus inverse ne peut avoir lieu sans intervention extérieure. En règle générale, toutes les formes d'énergie peuvent se transformer intégralement en chaleur, mais non l'inverse ; toute transformation d'énergie en travail entraîne une production de chaleur, or la transformation de chaleur en travail ne peut se faire que par le transfert irréversible de celle-ci d'un corps chaud vers un corps froid, ce qui rapproche le système où la transformation a lieu de l'équilibre thermique caractérisé par l'absence de toute énergie utilisable. Dans un système isolé, la transformation inévitable des autres formes d'énergie en chaleur se solde par une diminution continue de la quantité d'énergie transformable en travail. La chaleur apparaît comme la forme la plus dégradée d'énergie et, en même temps, comme celle pour laquelle la nature manifeste la " préférence " la plus grande (cf. M. Planck, L'image du monde dans la physique moderne, 1963). Et le problème est de trouver une grandeur physique qui permette de mesurer cette préférence naturelle ; c'est Clausius qui l'a définie et nommée entropie. La notion a ensuite été précisée à partir de l'idée que la répartition égale de la chaleur dans les différentes parties d'un système correspond à l'état énergétique le plus probable et que, en général, l'entropie d'un état correspond à son degré de probabilité. Cette idée a été développée par W. Gibbs et par L. Boltzmann.

De son côté, la théorie de l'information s'est développée, à partir des travaux de C. E. Shannon et W. Weaver (1949), pour résoudre certains problèmes de télécommunication. Son principe fondamental est que l'information apportée par un événement est d'autant plus grande que la probabilité de celui-ci était plus faible. La fonction H de Shannon définit la mesure de l'information apportée par un événement comme mesure de l'incertitude levée par la réalisation de cet événement. C'est une définition quantitative de l'information, qui ne tient aucun compte de la valeur subjective de celle-ci : que telle information soit utile pour tel destinataire ou inutile pour tel autre, celui qui s'occupe de sa transmission n'a pas à s'en soucier. En outre, cette théorie prend en considération des problèmes techniques concernant la précision avec laquelle des signaux peuvent être transmis; elle ne s'intéresse ni à la qualité sémantique des signaux (leur adéquation à la signification visée) ni à l'efficacité avec laquelle ils peuvent affecter le destinataire. Cette théorie est donc relative à un dispositif technique de communication qui comprend cinq éléments : une source d'information produisant le message, un émetteur transformant celui-ci en une séquence de signaux transmissibles, un canal de transmission (ici se pose le problème capital de la perturbation des signaux, soit par l'inadaptation propre du canal, soit par des sources de bruit externes), le récepteur qui reconstitue le message à partir des signaux, le destinataire du message. Le fonctionnement de ce dispositif suppose l'existence d'un code qui garantisse la symétrie des deux opérations de codage et de décodage effectuées, l'une par l'émetteur, l'autre par le récepteur. L'essentiel de la théorie de Shannon concerne les problèmes soulevés par les opérations de codage et la recherche des conditions de leur optimisation en fonction des bruits éventuels qui perturberont la transmission des signaux dans le canal.

Or la formule par laquelle Shannon définit la fonction H et celle par laquelle Boltzmann définit l'entropie sont, à peu de chose près, identiques. Est-ce une coïncidence ou l'indication d'une relation fondamentale entre entropie et information? Cette question amène les physiciens à s'interroger sur les notions d'ordre et de désordre. D'où il ressort que l'appréciation du degré de désordre (ou d'entropie) dans un système dépend de la mise en place d'un dispositif qui assure le couplage du système observé et d'un système d'observation (comprenant l'observateur ainsi que les instruments et procédures de mesure). En d'autres termes, le problème ne peut être correctement posé que si l'on peut définir la voie de transmission par laquelle un récepteur donné reçoit de l'information du système observé : " appliquer la formule de Shannon à une mesure de quantité d'information contenue dans un système veut dire que l'on considère qu'il existe une voie de transmission d'information entre le système et l'observateur " (H. Atlan, L'organisation biologique et la théorie de l'information, 1972, p. 21).

L. Brillouin montre que toute mesure physique a pour conséquence une variation de l'entropie dans le système observé, mais aussi dans le système d'observation, et que le bilan des variations dans les deux systèmes se solde toujours par une augmentation de l'entropie dans le système global constitué par leur couplage. En outre, considérant les différents ordres de grandeur dans lesquels on peut observer un système physique, il montre qu'il existe un minimum au-dessous duquel aucune mesure n'est possible. Appelons macroscopiques les caractéristiques accessibles à la mesure et microscopiques celles qui lui sont inaccessibles. Dans un état entropique maximum, les caractéristiques macroscopiques d'un échantillon de gaz, par exemple, peuvent correspondre à un grand nombre de structures microscopiques distinctes, toutes aussi probables les unes que les autres, et dont rien ne permet de savoir laquelle est réalisée effectivement à un moment donné. " L'entropie mesure le manque d'information sur la véritable structure du système. Ce manque d'information implique la possibilité d'une grande variété de structures microscopiques distinctes qui sont, en pratique, impossibles à distinguer les unes des autres. Puisque l'une quelconque de ces microstructures peut exister réellement à un moment donné, le manque d'information correspond à un désordre réel dans les degrés de liberté cachés " (L. Brillouin, La science et la théorie de l'information, 1959, p. 155). La constatation d'un désordre exprime ici le décalage entre la quantité d'information nécessaire pour lever toute incertitude concernant la microstructure du système observé et la quantité d'information transmise à l'observateur par la voie de la mesure. L'entropie maximum, c'est-à-dire l'état de plus grand désordre, correspond au plus grand décalage entre ces deux quantités d'information, c'est-à-dire à notre ignorance maximum. Autrement dit, à mesure qu'un système isolé évolue vers son état d'équilibre thermodynamique, l'incertitude concernant sa microstructure augmente.

L'augmentation de la quantité d'information que l'on obtient sur un système isolé est définie par la réduction du nombre des microstructures possibles. Pour l'obtenir, il faut coupler le système et un dispositif de mesure. Il en résulte une diminution de l'entropie du système observé, si la mesure permet une réduction de l'incertitude concernant la microstructure, mais aussi une augmentation de l'entropie du dispositif de mesure qui, pour fonctionner, doit transformer de façon irréversible une certaine quantité d'énergie. On dira que toute réception d'information implique une augmentation de la néguentropie (ou une diminution de l'entropie) du système observé, contrebalancée par une augmentation de l'entropie du système de mesure, telle que le bilan total fait toujours ressortir une augmentation de l'entropie du système global. Cela revient à dire qu'un système isolé cesse d'être isolé du moment qu'on l'observe, et que le nouveau système physique isolé, dont le bilan énergétique vérifie le deuxième principe de la thermodynamique, est désormais un système plus grand englobant le système observé et le dispositif d'observation ou de mesure.

Or Brillouin, d'une part, démontre qu'il y a une équivalence quantitative entre la néguentropie fournie au système observé et l'information qui en est obtenue et, d'autre part, maintient la distinction entre néguentropie et information. Et cette position théorique permet de proposer une solution satisfaisante du paradoxe de Maxwell, dont on rappelle brièvement l'énoncé : on suppose que deux enceintes A et B sont séparées par une cloison dans laquelle est percée une ouverture munie d'une porte ; elles sont remplies d'un même gaz et sont à la même température ; la porte est commandée par un dispositif (le " démon ") capable de distinguer individuellement les molécules de gaz et qui permet seulement aux molécules les plus rapides de passer de A en B et aux plus lentes de passer de B en A. Le résultat de cette activité de choix opérée par le démon est que la température augmente en B, tandis qu'elle diminue en A ; l'on obtient ainsi une diminution de l'entropie dans un système clos, sans aucun apport extérieur d'énergie, ce qui contredit le deuxième principe de la thermodynamique.

Reprenant une étude antérieure de L. Szilard, L. Brillouin remarque que, pour distinguer individuellement les molécules, le démon doit les " voir ", donc les mettre en interaction avec de la lumière ; or l'émission de photons nécessaire à cet effet suppose une absorption d'énergie extérieure au système constitué par les deux enceintes, donc une augmentation d'entropie. Le démon fonctionne de façon analogue à un dispositif de mesure couplé avec le système A-B : la néguentropie qu'il y introduit a pour équivalent quantitatif l'information qu'il en retire sur la vitesse des molécules, mais elle est contrebalancée par une augmentation de sa propre entropie telle que le bilan énergétique du système démon-enceintes se solde par une augmentation de l'entropie.

La résolution de ce paradoxe est intéressante pour le biologiste, dans la mesure où les enzymes ont été comparés à des démons de Maxwell en raison de leur capacité de reconnaître certaines molécules précises avec lesquelles elles forment des complexes provisoires par liaison non-covalente pour catalyser telle réaction spécifique. D'une façon générale, la capacité qu'ont les systèmes vivants d'assurer leur équilibre et leur croissance a conduit à penser qu'ils constituent une " enclave " où se manifeste une tendance à la diminution de l'entropie (cf. N. Wiener, Cybernétique et société, 1962). Or il convient ici de rappeler que les deux premiers principes de la thermodynamique s'appliquent à des systèmes isolés, tandis que les systèmes vivants ont la particularité de se maintenir constamment en régime d'échange. Tandis que l'évolution d'un système physique isolé le conduit irréversiblement vers l'état d'équilibre stable correspondant à l'entropie maximum, celle des systèmes vivants implique qu'ils se maintiennent, à tout le moins, en état d'équilibre stationnaire : leur accession à l'équilibre stable signifie qu'ils cessent d'être vivants.

L'évolution des systèmes vivants va dans le sens d'une néguentropie croissante : des unicellulaires procaryotes aux pluricellulaires les plus évolués, en passant par les unicellulaires eucaryotes, le milieu interne n'a cessé de devenir plus complexe, du fait d'une compartimentation différenciant des lieux toujours plus nombreux et fonctionnellement plus spécialisés, ce qui revient à dire que la différence entre la répartition des éléments matériels dans le milieu interne et une répartition aléatoire de ces mêmes éléments n'a cessé de croître. Le même phénomène se manifeste dans la différence croissante, en fréquence et en vitesse, entre les réactions chimiques caractéristiques du milieu interne et celles que l'on peut observer dans le milieu externe. La croissance de l'entropie résulte encore du fonctionnement de l'appareil génétique qui garantit, au moment de la reproduction, une transmission invariante de l'organisation du vivant, mais aussi de la pression sélective de l'environnement, qui n'autorise la conservation des nouveautés accidentelles que si, à tout le moins, elles ne diminuent pas le degré d'ordre interne du vivant, mais le maintiennent constant ou, mieux, l'augmentent.

Toutefois ce gain de néguentropie doit se solder quelque part par un gain d'entropie ; il ne peut pas être gratuit, parce qu'il n'y a pas création d'ordre, mais seulement transfert d'ordre d'une partie de l'univers dans une autre : le souci, manifesté par le discours scientifique, de maintenir la validité du deuxième principe de la thermodynamique témoigne, une fois de plus, du refus d'admettre dans ce discours quoi que ce soit qui ressemble à une création. Et, une fois encore, c'est en reconsidérant les phénomènes dans un ordre de dimension plus grand que le discours retrouve son équilibre. " Il est, théoriquement, tout à fait possible qu'un système donné puisse diminuer son entropie à condition qu'il y ait une augmentation au moins égale de l'entropie du monde extérieur; c'est l'entropie totale de l'univers qui ne peut pas diminuer " (A. L. Lehninger, Bioénergétique, 1969, p. 214). Les premiers systèmes vivants sont apparus dans un milieu externe qui, par la densité des macromolécules résultant des synthèses abiotiques, présentait un degré de néguentropie peu différent de celui du milieu interne ; au cours de leur évolution, ils ont non seulement absorbé ces macromolécules, mais aussi transformé le milieu externe de telle sorte que les synthèses abiotiques y sont devenues impossibles. En augmentant ainsi l'entropie du milieu physique pour maintenir constante ou diminuer celle de leur milieu interne, les systèmes vivants ne cessent de détruire les conditions matérielles de leur apparition et de leur évolution antérieure et de creuser le fossé qui les sépare des systèmes physiques. Mais l'apparition de la vie sur terre, et son évolution, qui peut apparaître, considérée dans l'ordre de grandeur des êtres vivants, comme un processus profondément original, n'est plus, considéré dans l'ordre de grandeur de l'univers, qu'une péripétie locale, que le détour par lequel se réalise avec une efficacité certaine, en cette partie de l'univers - et peut-être, de façon analogue, en d'autres parties - le processus général de l'augmentation de l'entropie. " En fait, il est légitime de considérer l'irréversibilité de l'évolution comme une expression du deuxième principe dans la biosphère " (J. Monod, Le hasard et la nécessité, 1970, p. 160).

Assimiler les enzymes à des démons de Maxwell implique que l'on précise la différence entre information et néguentropie ; en effet, leur fonction d'organisation (transformation de l'information en néguentropie) est symétrique de la fonction d'observation et de mesure (transformation de la néguentropie en information). Il y a donc lieu de distinguer l'information codée et transmise (celle dont traite la théorie de l'information) de l'information contenue dans un système (la néguentropie). La difficulté principale est de terminologie. On peut prendre l'information dans le sens de la morphogenèse, telle qu'elle résulte des processus qui tendent à conserver ou accroître le degré d'ordre dans un système (c'est-à-dire l'écart qui sépare la répartition des éléments, dans le système, d'une répartition purement aléatoire) ; en ce sens, on peut nommer information actuelle la néguentropie et information potentielle l'information codée et transmise, et l'organisation est définie comme la transformation de l'information potentielle en information actuelle. En revanche, si l'on considère l'information, du point de vue de la connaissance, comme ce qui réduit notre incertitude concernant la structure du système observé, c'est la néguentropie qu'il faut nommer information potentielle, et c'est l'information transmise à l'observateur qu'il faut nommer information actuelle ; dans ce cas, c'est l'observation et la mesure qui se définissent comme transformation de l'information potentielle en information actuelle. Dans les deux cas, il faut souligner l'importance stratégique des récepteurs, qui sont les lieux où l'information s'actualise : dans le premier cas, il s'agit du système matériel où elle s'actualise comme ordre improbable, c'est-à-dire comme forme ; dans le second, il s'agit de l'observateur en qui elle s'actualise comme réduction de l'incertitude, c'est-à-dire comme connaissance. Poser une équivalence quantitative entre la néguentropie que l'on introduit dans un système et l'information qu'on en retire, tout en maintenant la distinction entre néguentropie et information, cela revient à dire que connaissance et organisation sont deux processus complémentaires de sens opposés.

Il faut se garder d'une interprétation subjectiviste qui ferait de l'entropie un simple effet des limitations de notre point de vue sur les phénomènes physiques. Dire que le degré d'entropie d'un système physique mesure l'écart entre la quantité d'information que nous en recevons et celle qui serait nécessaire pour lever toute incertitude concernant sa microstructure, cela ne signifie pas que cette information totale, qui sert ici de référence pour évaluer notre ignorance, soit contenue dans le système physique et qu'il ne nous manque que d'avoir trouvé le canal par lequel elle pourrait nous être transmise. Il faut revenir sur l'aspect statistique du concept d'entropie. Une grandeur d'ordre macroscopique mesurée sur un système physique est considérée comme une moyenne définie sur l'ensemble constitué par toutes les structures microscopiques différentes qui peuvent rendre compte des caractéristiques mesurables de ce système. L'entropie propre à un état macroscopique du système est proportionnelle au nombre de structures microscopiques qui constituent l'ensemble sur lequel peuvent être définies des valeurs moyennes correspondant aux caractéristiques mesurables de cet état. Le principe de la croissance de l'entropie vers un maximum signifie que tout système physique tend vers un état d'équilibre qui est l'état macroscopique le plus probable, c'est-à-dire celui auquel correspond le plus grand nombre de microstructures équiprobables. La question est de savoir si cette relation statistique entre les structures microscopiques et les grandeurs macroscopiques est relative à un stade d'approximation de la mesure qui peut être dépassé.

La complète réduction de l'incertitude impliquerait, dans l'optique de la dynamique classique, que l'on puisse déterminer, en un instant donné, les caractéristiques (position et quantité de mouvement) de chaque particule élémentaire du système observé et les trajectoires de celles-ci, d'où l'on puisse déduire l'état du système en tout instant suivant ou précédant celui de la mesure. Que l'idée de trajectoire, même considérée comme une limite vers laquelle on tendrait par approximation progressive, doive être abandonnée lorsqu'il est question de phénomènes d'ordre microscopique, c'est aux physiciens d'en faire la démonstration. C'est ce que font I. Prigogine et I. Stengers qui, prolongeant et amplifiant la leçon de la mécanique quantique estiment que, mis à part quelques phénomènes exceptionnels et judicieusement choisis, sur l'analyse desquels s'est construite la dynamique classique, " la définition d'un état ponctuel unique perd son sens, la trajectoire n'est plus seulement une idéalisation mais une idéalisation inadéquate " (La nouvelle alliance, 1979, p. 272). Il revient à l'analyse épistémologique de dégager le sens de quelques faits qui paraissent désormais bien établis.

La mécanique quantique nous apprend que la différence entre le microscopique et le macroscopique est objective : les modes d'organisation possibles de la matière changent en fonction de l'ordre de dimension dans lequel on la considère. Il est impossible de concevoir, même à titre d'idée limite, une connaissance totale des phénomènes d'ordre microscopique, parce que nous ne pouvons en concevoir les instruments. Tout instrument d'observation ou de mesure a nécessairement une sortie de dimension macroscopique où le phénomène étudié s'inscrit sous forme d'une modification (déviation d'une aiguille sur un cadran, apparition d'un spectre discontinu sur une plaque sensible, etc.), visible ou, mieux encore, lisible. La connaissance de la structure microscopique implique donc l'existence d'un canal par lequel celle-ci communique avec le niveau macroscopique et, par rapport à cette nécessité, tous les systèmes physiques ne sont pas équivalents.

Lorsqu'un système est parvenu à un degré maximum d'entropie, il en résulte que, de l'entrée microscopique vers la sortie macroscopique, est transmise une quantité maximum de bruit pour une quantité minimum d'information. En d'autres termes la quasi-totalité des phénomènes d'ordre microscopique intervenant dans le système sont équivalents les uns aux autres ou se compensent les uns les autres quant à leur traduction dans les variables lisibles au niveau macroscopique. Le projet de réduire le bruit pour accroître l'information reçue, sans modifier l'état du système, est illusoire. La réduction du bruit n'est possible que moyennant une réduction de la population des microstructures équiprobables, or un tel résultat ne se traduit pas seulement dans un accroissement de notre connaissance, mais aussi, indissociablement, dans une diminution de l'entropie du système : connaissance et organisation sont les deux faces d'une même activité, et la connaissance est néguentropique parce que seule la néguentropie d'un système peut être transformée en information transmise au niveau macroscopique ; plus précisément : le degré de néguentropie d'un système physique mesure la quantité d'information maximum, concernant sa microstructure, qui puisse être transmise vers une sortie macroscopique. Une fois cette information reçue, tout accroissement de la connaissance passe par une activité d'organisation qui élève le degré de néguentropie du système, c'est-à-dire par une modification réelle de celui-ci.

L'application de la théorie de Shannon à la quantification de l'information contenue dans un système (néguentropie) suppose que l'on connaisse la voie de transmission et le récepteur sans lesquels l'équivalence entre néguentropie et information ne peut être définie. De même, la compréhension des processus d'organisation suppose non seulement une connaissance du code et des opérations de codage qui président à l'élaboration d'un programme (le programme génétique, par exemple), mais aussi l'identification des voies de transmission et des récepteurs où l'information, néguentropie potentielle, se transforme en néguentropie actuelle, mise en ordre réelle d'un système vivant. L'application de la théorie de l'information à la connaissance des systèmes vivants n'est légitime que dans la mesure où elle s'appuie sur une correspondance analogique précise et rigoureuse avec le dispositif technique de communication dont la structure définit les conditions dans lesquelles l'usage du langage formel propre à cette théorie est valide. Et si les processus d'information, dans les systèmes vivants, doivent être analysés essentiellement au niveau des récepteurs et à partir d'eux, la théorie de Shannon n'est sans doute pas d'un grand secours à cet effet, tant il est vrai, que les problèmes de quantification ne sont pas fondamentaux et que c'est l'analyse de la morphologie des récepteurs et de ses modifications corrélatives à la réception de l'information qui présente le plus grand intérêt pour l'étude des processus d'organisation.


>>> Retour au sommaire
>>> Suite