Notes de lecture I : la flèche de l'explication et le réductionnisme

Je suis en train de lire le livre de Stuart Kauffman, “Reinventing the Sacred”. Le livre est passionnant, il serait dommage de ne pas prendre quelques notes…

Avant d’aborder le réductionnisme en biologie, Kauffman revient sur la remise en cause récente des approches réductionnistes en physique. Le principe du réductionnisme tient dans cette formule concise de Steven Weinberg :

The explanatory arrow of science currently aims downward

La flèche de l’explication en science pointe vers le bas

Le bas étant, bien sûr, les petites échelle; Weinberg exprime ainsi l’idée que pour trouver l’explication d’un phénomène, il est nécessaire de le décomposer en entités toujours plus petites.

La remise en question du réductionnisme en physique est initiée réellement en 1972, lorsque le prix Nobel de physique Philip Anderson publie un fameux papier (téléchargeable à l’adresse suivante et parfaitement lisible par le non physicien), intitulé tout aussi sobrement :

More is different

“Plus” est différent

Derrière cette formule énigmatique se cache l’idée suivante formulée par Marx dans un autre contexte: les différences quantitatives aboutissent, en s’accumulant à des différences qualitatives, ou encore (je repompe le dialogue entre Fitzgerald et Hemingway cité par Anderson en conclusion du papier)

F : Les riches sont différents de nous.
H : Tu as raison, ils ont plus d’argent.

Anderson illustre plus précisément cette idée avec un exemple, on y revient toujours, de brisure de symétrie. Considérons une molécule d’ammoniaque. Cette molécule ressemble à une tétraèdre, avec un atome d’azote au sommet et trois atomes d’hydrogène à la base. Les lois de la mécanique quantique font que la molécule d’ammoniaque n’est pas stable : en fait, par effet tunnel, l’atome d’azote peut passer de l’autre côté par rapport au plan défini par les atomes d’hydrogène, si bien que la pyramide s’inverse. Mais une fois cette pyramide inversée, elle peut, avec la même probabilité, s’inverser dans l’autre sens. Cette inversion a lieu … plus de 30 milliards de fois par seconde. Si bien qu’en réalité, de façon “effective”, l’atome d’azote a l’air d’être dans le plan des atomes d’hydrogène (et en particulier la molécule d’ammoniaque n’est pas un dipôle), et est donc “statistiquement” symétrique.

Mais considérons des molécules de plus en plus grosses. A mesure qu’on ajoute des atomes, les probabilités d’avoir un effet tunnel de ce type disparaissent. Dans des molécules plus grosses, l’équivalent de l’atome d’hydrogène met soudainement 15 milliards d’années à traverser le plan de symétrie. La symétrie est donc brisée : il peut exister des molécules “droite” et des molécules “gauche”. Ce qui est important de voir est qu’aucune loi de la physique n’est violée : c’est juste l’ajout de composantes qui change le comportement qualitatif du système (tout comme les riches dans le dialogue humoristique précédent changent de nature en gagnant plus d’argent). On passe d’un système statistiquement symétrique à des molécules chirales stables en ajoutant des atomes. C’est ce qu’on appelle un comportement émergent.

Anderson en fait ne renie pas le réductionnisme proprement dit, ce qu’il renie est le procédé associé qu’il appelle “constructiviste” “constructionniste” ?. C’est l’idée qu’en comprenant les mécanismes à petite échelle, on va reconstruire les lois de ce qui va se passer à plus grande échelle.

La démarche constructionniste se brise sur le mur de l’échelle et de la complexité. Le comportement de grands composés de particules élémentaires ne peut pas être compris par extrapolation des propriétés de quelques particules. En réalité, à chaque niveau de complexité apparaissent de nouvelles propriétés, et la compréhension de ces nouveaux comportements est un programme de recherche à part entière, aussi fondamental que n’importe quel autre.

Le deuxième argument d’Anderson exposé par Kauffman est des plus intéressants. Considérez votre ordinateur. Supposez que vous y fassiez tourner un algorithme : à l’intérieur de votre ordinateur circulent de l’information sous forme de bits, des zéros et des uns, qui correspondent en gros à des courants d’électrons. Mais, vous pourriez utiliser pour faire votre calcul un ordinateur avec un fonctionnement physique complètement différent, par exemple l’ENIAC qui utilisait de nombreuses triodes. Vous pourriez aussi utiliser une machine de Turing, avec un ruban et un crayon, voire des étudiants en thèse qui pourraient “simuler” l’algorithme en remplissant ou en vidant des seaux d’eau pour simuler les zéros et les uns. Le point est le suivant : l’algorithme lui-même est indépendant du support physique utilisé pour le simuler. On ne peut donc pas réduire un algorithme à de la physique, on ne peut pas comprendre un algorithme en étudiant la physique des composants qui l’implémentent.

Autre illustration en physique : la thermodynamique. Considérons la température d’un gaz. Cette température est en fait une notion “limite” : on ne peut définir vraiment la température que pour un nombre de molécules quasi infini. A contrario, cela n’a pas de sens de parler de la température d’une molécule. La température est une quantité émergente. Dernier exemple issu de la thermodynamique : la flèche du temps. Les lois de la physique à petite échelle sont invariantes par renversement du temps. Pourtant, à grande échelle, une nouvelle loi apparaît : le désordre grandit, l’entropie augmente [1].

Prochaine note sur le sujet : du réductionnisme en biologie

[1] Kauffman donne un paradoxe sur l’entropie de Bolzmann et la flèche du temps très intéressant. Vous savez peut-être que Bolzmann a formulé l’équivalence entre entropie et nombre de micro-états du système, la fameuse formule gravée sur sa tombe S = k. ln W. Cet argument semble a priori résoudre le problème de la flèche du temps : partant d’une configuration improbable avec un petit nombre de microétats, on va forcément vers une configuration plus probable avec un plus grand nombre de microétats. Mais en fait il y a un gros problème : l’argument devrait aussi marcher en “remontant le temps”. Si on a une configuration improbable à un temps t, plus on remonte le temps, plus on devrait avoir de chance d’observer un état probable à t-1 en vertu du même argument. Remettons le temps dans le bon sens : cela signifierait que le désordre diminue avec le temps, ce qui viole le principe même énoncé ci-dessus.

20 Responses to “Notes de lecture I : la flèche de l'explication et le réductionnisme”

  1. all Says:

    Le réductionnisme et l’approche constructale ont pour but de trouver du déterminisme au sein du chaos. Ce qui en fait une belle science de l’ingénieur, pour optimiser les systèmes et créer de belle machines, mais ne peut convenir dans d’autres domaines. Elle ne fait que reproduire et analyser ce que produit la nature dans certaines conditions bien déterminées.

  2. Yvic Says:

    Le réductionnisme en biologie fait également des ravages, surtout en biologie moléculaire (voir le fameux papier “Can a biologist fix a radio?” de Yuri Lazebnik). Ce sont peut-être les informaticiens et les physiciens qui vont sauver la biologie avec leur approche globales des questions biologiques…

  3. Tom Roud Says:

    @ all : il ne faut pas jeter non plus le bébé du réductionnisme qui est fondamental en science avec l’eau du bain, il s’agit simplement de dire que s’il est nécessaire, il n’est pas suffisant.

    @ Yvic : la biologie, c’est pour le prochain billet, mais vous pouvez jeter un coup d’oeil sur celui-ci :

    http://tomroud.owni.fr/2008/06/25/la-nouvelle-biologie-pour-le-nouveau-siecle/

  4. Tocquevil Says:

    Pourquoi faire appel à Weinberg alors que Descartes l’a mieux dit : “Diviser chacune des difficultés que j’examinerais en autant de parcelles qu’il se pourrait et serait requis pour mieux les résoudre” (Discours de la Méthode).

    De même, Aristote n’a pas attendu Anderson : “la totalité est plus que la somme des parties” (Métaphysique).

    L’opposition réductionnisme Vs holisme est un peu artificielle. On peut étendre le réductionnisme en posant que “la totalité est la somme des parties et de leurs interactions”. Les mécanismes d’interaction peuvent suffire à expliquer les propriétés émergentes.

    Le “deuxième argument d’Anderson” ne me convainc pas. Dissocier le subtrat physique de la fonction logique n’est pas contraire au principe réductionniste : un scientifique qui étudierait le fonctionnement du cerveau en ne le considérant que comme un ensemble de neurones et en faisant abstraction des fonctions logiques remplies par ces neurones ne serait pas un réductionniste. Il serait seulement un mauvais scientifique.

    A propos : excellent blog

  5. Tom Roud Says:

    @ Tocquevil :

    Les mécanismes d’interaction peuvent suffire à expliquer les propriétés émergentes.

    C’était ma position il y a quelques années (inspiré en cela, justement, par les mécanismes de brisure de symétrie en physique), mais maintenant je ne crois plus que cela soit vrai en général. Par exemple, je n’en ai pas parlé bien que cela soit un exemple de Kauffman, mais on ne sait pas dériver ainsi la mécanique des fluides. Les exemples biologiques de Kauffman sont aussi beaucoup plus parlants de ce point de vue, j’y reviendrai.

    Par ailleurs il y a aussi un argument utilitariste. Regardez ce qui se passe en ce moment en physique théorique, avec la quête de la théorie du tout. Imaginons que les physiciens parviennent à écrire l’hamiltonien ultime. J’aurais envie de dire “so what ?”. Concrètement, connaître la structure intime de l’univers ne va pas nous aider à maîtriser mieux la mécanique des fluides ou à comprendre la sélection naturelle. Et il serait complètement idiot de partir des supercordes pour essayer de remonter en décrivant les transitions de phase. Donc on peut aussi se “leurrer” à rechercher des explications avec une approche réductionniste.

    Pour le deuxième argument, la démarche réductionniste serait plutôt d’étudier un neurone pour vouloir étudier le cerveau. Mais comme le cerveau est un objet émergeant à partir des interactions de neurones, on pourrait potentiellement construire un cerveau avec des neurones complètement artificiels. Donc étudier en détail un neurone n’apporte rien à la compréhension du cerveau comme objet par lui-même (Kauffman définit aussi ce genre de notions). L’argument est je crois plutôt un critère pour reconnaître un comportement émergent; critère que pour ma part je trouve très utile et intéressant : par exemple il est clair avec ce critère que beaucoup de choses en biologie sont émergentes.

    (merci !)

  6. Tocquevil Says:

    Merci Tom pour ce commentaire. Je n’avais pas pris l’exemple des neurones au hasard : j’ai bien conscience que la caricature du réductionnisme consisterait à n’étudier qu’un neurone pour comprendre le cerveau. Mais justement : cette caricature ne fait pas justice à l’approche réductionniste, qui vaut mieux que cela.

    Pour la mécanique des fluides : la méthode cartésienne ne prétend pas qu’il faut toujours pousser plus loin la décomposition en parties plus petites, mais tant que cela est pertinent (en autant de parcelles… qu’il serait requis).

    Sur la quête de la théorie du Tout : je ne suis pas sûr d’avoir bien compris votre propos. Il me semble (je suis un béotien) que ces théories ne visent pas à nous rendre plus performants dans notre maîtrise de la mécanique des fluides, mais dans notre compréhension des structures primaires (plutôt qu’ultimes) de l’univers. Il n’est toutefois pas exclu que cette compréhension facilite la modélisation des phénomènes de brisure de symétrie.

  7. Tocquevil Says:

    Wow, il s’est passé un truc bizarre…

  8. david Says:

    Passionant billet. Ca a toujours ete un point fondamental en sciences, mais je pense qu’on arrive de plus en plus a une certaine limite ou l’on ne pourra pas avancer de maniere significative sans s’attaquer de front a cette problematique.

    Par exemple, bien que je n’ai pas encore la tete bien claire a ce sujet, je pense que l’omnipresence des statistiques en sciences de l’ingenieur et ailleurs est en partie liee a cela: les probabilities permettent de s’affranchir de l’echec des approches reductionistes, quelque part. Les probabilites modelisent ce que l’on ne sait pas/maitrise pas: par exemple, en traitement du signal, au lieu de modeliser le signal proprement dit, on monte un modele plus ou moins elabore entre un signal simplifie et un bruit, pour s’affranchir de l’etude des interactions (on y assigne eventuellement des proprietes statistiques). On peut d’ailleurs reproduire des comportements emergents comme cela (ils font ca pas mal en economie, je crois, mais je veux pas trop m’avancer non plus pour eviter de dire des conneries).

  9. Tom Roud Says:

    @ Tocquevil : certes, j’ai un peu caricaturé sur les neurones, mais quand on lit certains papiers de biologie, on n’en est pas si loin !

    Mon propos sur la théorie du tout est surtout pour dénoncer en fait la prétention de cette formule de “théorie du tout” qui n’expliquera pas grand chose, et surtout pas des choses très importantes à  notre échelle. Pourtant, cela n’empêche pas Weinberg, physicien des hautes énergies, d’affirmer que la flèche de l’explication pointe vers le bas.

    @david : je suis d’accord avec toi, mais un truc auquel il faut faire attention est de ne pas sombrer dans l’excès inverse. Par exemple, en particulier dans mon domaine (systems biology au sens large), les gens voient de l’émergence partout et parfois du coup n’expliquent plus rien.

  10. Xochipilli Says:

    Intéressant comme tout (comme d’hab). Je rejoins Tocquevil: n’est-ce pas un peu banal de constater l’émergence phénomènes “macro” qui sont difficilement explicables à un niveau micro? Les exemples foisonnent en économie (la formation des prix apparemment indépendamment des acteurs), en statistiques (les lois des grands nombres), en biologie (la surface des organismes qui augmente moins vite que leur volume quand leur taille augmente), en sciences (la gravité qui agit à grande échelle et pas à petite) etc. Y a-t-il vraiment des “constructivistes” qui prétendent remplacer les outils d’une science “macroscopique” comme la mécanique des fluides, par des instruments théoriques destinés aux niveaux microscopiques (la mécanique quantique pour faire les équations de la mécanique des fluides, pour reprendre ton exemple)?

    L’objection à l’argument de Boltzmann sur la flêche du temps me paraît diabolique. Elle suppose d’admettre la réversibilité du temps à petite échelle; Boltzmann l’avait-il postulé?

  11. coincoin Says:

    L’objection à l’argument de Boltzmann sur la flêche du temps me paraît diabolique. Elle suppose d’admettre la réversibilité du temps à petite échelle; Boltzmann l’avait-il postulé?

    En toute incompétence il me semble que oui, en physique statistique la macroirréversibilité émerge de la microréversibilité pour des raisons probabilistes. Tout ça n’est pas bien neuf, l’argument de l’inversion des vitesses des particules remonte à la controverse Zermelo-Poincaré si j’ai bonne mémoire (ce dernier avait calculé le temps nécessaire pour que l’entropie diminue vraiment à l’échelle macroscopique, appelé “temps de retour de Poincaré”, et il s’est avéré que ce temps était très très long (bien supérieur à l’âge de l’univers) même s’il était fini ; en gros, le temps mis pour passer d’une condition initiale ordonnée à une condition finale désordonnée est fini et très court. Le temps mis pour revenir à la condition initiale ordonnée est aussi fini, mais très long, suffisamment pour qu’on considère que l’évolution est unidirectionnelle à toute échelle de temps un tant soit peu concrète). Mais c’est vrai que ça reste un exemple assez imparable de propriété émergente.

  12. Tom Roud Says:

    @ Xochipilli : oui et non. Tout le monde est d’accord pour dire qu’il y a des effets d’échelles, mais la question est beaucoup plus profonde, presque sociologique : il s’agit de définir les problèmes scientifiques importants et comment on va les étudier . Or, mon impression est que spontanément, les gens préfèrent se tourner vers le réductionnisme car il est en fait beaucoup plus facile d’emploi.

    @ coincoin : je n’en connais probablement pas plus que toi, mais je ne pense pas que ce que tu dises lève le paradoxe d’invesion de la flèche du temps. Typiquement, quand tu fais des simulations de dynamique type Monte Carlo, les taux de transitions sont des rapports des probabilités d’équilibre. Avec cela, tu peux estimer des temps typique pour aller d’une configuration à une autre (qui doit être un truc du genre l’inverse du rapport des probabilités relatives). Mais je suis convaincu que ces taux sont invariants par inversion du temps : si tu es dans une configuration peu probable, tu as plus de chance dans le passé de venir d’une configuration probable; c’est en particulier vrai à je pense pour des systèmes à l’état stationnaire où il n’y a plus de flèche du temps proprement dite. Le truc est qu’ ici on a typiquement un problème de proba conditionnelle : certes, partant d’une configuration probable, on a peu de chances d’aller dans une configuration improbable, sauf que là on sait qu’on a atteint une configuration improbable puisqu’on y est. Autrement dit, ton argument qui dit c’est typiquement très long d’arriver d’une configuration probable à une configuration probable ne tient pas car on sait qu’on est justement dans un des rares cas où cela a pris un temps très court; ce n’est justement pas un cas “typique”.
    J’aurais plutôt tendance à dire que l’univers est partout violemment hors équilibre, et qu’aucun système n’est isolé, ce qui fait que cela n’a pas beaucoup de sens de remonter le temps dans un système isolé comme dans ce paradoxe. En fait, on passe notre temps à générer de nouveaux systèmes hors équilibre.

  13. coincoin Says:

    OK Tom, je suis de toute façon bien loin de mon domaine de compétence (apparemment un peu du tien aussi, moi qui croyais que tous les physiciens étaient des experts en physique statistique !)

    Oui, je suis d’accord, ces taux sont invariants par inversion du temps, mais d’après ce que m’en a dit, si on maintient le temps dans le bon sens, on peut montrer qu’un système clos ordonné, après être passé par un état désordonné, mettra un temps fini à revenir à l’état ordonné initial. Simplement, ce temps est très long, ce qui revient à dire que les configurations désordonnées initiales (celles qu’on observe dans la pratique) font partie des configurations rares qui proviennent de quelque chose d’ordonné peu de temps avant. Simplement, ces configurations ont des chances négligeables d’être les mêmes que les configurations tout aussi rares (mais différentes) qui redonneront un état désordonné peu de temps après. Je pense que tout le monde a à peu près la même idée intuitive de la solution de ce paradoxe, mais être clair est une autre paire de manches…

    Une question naïve que je me pose souvent et à laquelle je n’ai par contre pas trouvé de réponse, et que tu pourrais peut-être m’expliquer, est que, l’entropie de l’univers étant supposée augmenter, je me demande s’il faut supposer que l’univers initial était à faible entropie, donc plus ordonné que l’univers actuel, ce qui m’étonne un peu au vu des descriptions du Big Bang qu’on fait dans la littérature de vulgarisation.

  14. Tom Roud Says:

    moi qui croyais que tous les physiciens étaient des experts en physique statistique

    Pour faire des calculs, ça va, mais pour les interprétations quasi-philosophiques … Un truc assez dommage d’ailleurs est que ce genre de discussions n’est pas enseigné; la physique théorique, c’est beaucoup de technique, j’avais parfois l’impression d’être en prépa en DEA…

    Le problème de l’entropie de l’univers ne m’inspire pas beaucoup, j’ai peur de dire des bêtises … Je pense quand même que l’univers était violemment hors équilibre, comme un ballon plein de gaz très comprimé qui se relâche soudainement (sinon tu n’aurais pas eu des phénomènes type inflation); ensuite c’est bien connu il me semble que les fluctuations primordiales ont été amplifiées par l’expansion de l’univers, ce qui fait qu’on est encore dans un état transitoire où ces fluctuations n’ont pas encore été “moyennées” à l’échelle de l’univers. Enfin c’est ce que je dirais en réfléchissant 5 minutes…

  15. Abie Says:

    Je n’ai pas (encore? mais ma liste est si longue) lu le bouquin de Kauffman, mais j’ai assisté à une intervention video à la conf AlifeXI, et j’ai été très surprise et très déçue…
    Il expliquait que l’évolution biologique n’est pas prédictible à l’avance (jusque là tout va bien) et qu’il fallait faire de cette créativité de la vie le nouvel objet sacré
    L’assistance a dans l’ensemble réagi assez négativement, quelqu’un allant jusqu’à résumer le talk en disant “La seule chose que cettre présentation montre, c’est que Kauffman a peur de la mort”.

    J’attend avec impatience la suite de tes impressions sur le bouquin, qui est sans doute plus posé et argumenté qu’une présentation de 40 minutes.

  16. Tom Roud Says:

    @ Abe : j’avance lentement, mais pour l’instant je ne suis vraiment pas déçu. Je n’en suis pas encore arrivé aux passages plus philosophiques (même s’il a déjà expliqué de façon assez convaincante je trouve que le morale est émergente).

    Y a-t-il un lien vers cette video ?

  17. Stuart Kauffman: Reinventing the Sacred « Coffee and Sci(ence) Says:

    [...] Je crois bien que ce sont les vidéos dont parle Abie [...]

  18. Benjamin Says:

    Echanges très intéressants, bravo. Cependant il y a une confusion entre ce que vous appelez constructivisme et le véritable constructivisme, cousin de la systémique et donc rigoureusement à l’opposé de ce que vous croyez. Le véritable constructivisme combat le réductionnisme et avec lui le positivisme. Lisez mon blog et surtout JL Le Moigne. Le constructivsime ne reconstruit pas à partir d’un élément de la réalité toute la réalité, c’est justement ce que soutient le cartésianisme. le constructivisme soutient au contraire que l’esprit humain reconstruit ce qu’il croit être la réalité à partir d’un certain point de vue. Cette réalité existe mais elle est voilée (c’est le réel voilé).
    Grosse incompréhension sur ce que signifie constructivisme que je vous invite à corriger.

  19. Tom Roud Says:

    @ Benjamin : en fait, j’ai probablement fait une erreur de traduction en parlant de constructivisme. Anderson parle de “constructionist” que j’ai peut-être mal traduit. Je vais remplacer constructivisme par constructionisme mais je crains de faire un autre contre-sens. Je sens que je vais finir par m’abriter honteusement derrière Phil Anderson !

  20. Les particules surfent sur la vague » OwniSciences, Société, découvertes et culture scientifique Says:

    [...] phare du XXième siècle, échoue en définitive à donner une vision simple de la réalité par excès de réductionnisme ? Post-Scriptum : tout cela pose également des questions sur l’enseignement de la physique. [...]


Nombre de pages vues : 1170858