Paroles de sage prospectif

A quelques jours du Telethon, F. Taddei signale sur twitter cet article très intéressant sur la vision de la biologie du futur par Sydney Brenner, passant au karcher les tendances récentes de la biologie “high throughput”. Schadenfreude.

Petit rappel pour commencer : Syd Brenner fait partie des légendes vivantes de la biologie. Prix Nobel de médecine en 2002, co-découvreur du code génétique, “inventeur” (au sens archéologique du terme) de C. elegans comme organisme modèle, sa parole a un poids incontestable. Aussi est-il intéressant de noter ses critiques, exprimées dans une conférence prospective donnée à l’université Vanderbilt sur les 100 prochaines années à venir.

Brenner attaque ce qu’on appelle la “high-throughput biology”, terme à la mode désignant l’utilisation de techniques fournissant des masses de données à partir de techniques simples parallélisées. Ces avancées techniques ont amené l’émergence de ce qu’on appelle les “omics” : genomics, proteomics, interactomics … dont le but est de “cartographier” les différentes composantes de la biologie et leurs interactions. L’exemple typique est la cartographie du génome humain, récemment terminée. L’idée courante est que de ces cartes devraient sortir, presque spontanément, de nouvelles connaissances scientifiques.

Brenner, très justement à mon sens, affirme que ce n’est pas ainsi qu’on fait de la science :

La découverte d’un gène ne veut pas nécessairement dire que la protéine qu’il encode est importante. “Vous avez besoin d’avoir une théorie de la façon dont une cellule se comporte”

Il y a quelques années, certains comme Wired ont prédit la fin de la science au bénéfice d’approches automatisées capable d’inférer de nouvelles connaissances à partir de la masse de data brutes. Les objections à cette idée sont connues (on pourra par exemple consulter les econoclastes sur le sujet).
Mais Brenner ici se livre aussi à deux semi-”hérésies” biologiques. D’abord, il utilise ici explicitement le terme de “théorie”; c’est un terme tout à fait intéressant dans la bouche d’un biologiste, sachant qu’en général on parle plus volontiers de simples modèles. J’y vois une volonté de revenir à une vision plus holiste et plus émergente de la biologie. Brenner rejoint ainsi Woese qui affirmait la même chose il y a quelques années. Ensuite, il y a cette notion d’encodage de fonction “importante”. J’y vois certainement plus que Brenner ne l’exprime ici, mais je trouve très intéressant l’idée implicite de hiérarchie des fonctions. C’est une notion imprécise qui, à mon avis, mérite le débat vu que pour la communauté biologique, essentiellement, toute protéine mutée entraînant un phénotype est par définition “importante”.

Poursuivons :

La promesse du décryptage du génome humain était que nous aurions des millions de cibles, et que nous pourrions prendre des composés chimiques, faire une analyse à grande échelle et trouver ainsi les médicaments du futur, directement du labo au patient.

“Je pense que cette idée est totalement fausse”

En effet, cette approche nécessite une “hypothèse thérapeutique”, qui consiste à dire que bloquer une cible particulière pourrait avoir un impact fort sur une fonction physiologique et empêcher ainsi une maladie.

“J’ai rarement vu quelque chose d’aussi simple sortir des labos, la raison est que la plupart des gens dans les labos ne connaissent pas grand chose de la physiologie et de la pathologie humaine”

En fait, Brenner propose plutôt d’aller du “patient” au labo, i.e. d’utiliser la grande variété existante des génomes humains pour regarder directement la physiologie et comprendre, à l’échelle de l’organisme (et non simplement à l’échelle génétique) comment le corps fonctionne. Il va même jusqu’à affirmer qu’il faut se passer des modèles “souris” pour aller directement à l’homme, ce qui ne manque pas de sel pour quelqu’un qui a promu lui-même un modèle animal !

Si Brenner parle essentiellement ici de médecine, force est de constater que cette tendance a néanmoins bien débordé sur le fondamental. La recherche en biologie moléculaire, héritière de la longue et efficace tradition génétique, a incontestablement un fort biais vers ces méthodes high-throughput, notamment les domaines “de pointe”, draînant la majorité de l’argent, comme les cellules souches. La thérapie génique a révélé les dangers thérapeutiques d’aller trop vite, sans construire et tester de vrais modèles fondamentaux et théoriques en amont. Cela dit, paradoxalement, la solution de ce biais tourné vers les patients viendra peut-être des médecins eux-mêmes, notamment ceux qui retournent au labo pour refaire du fondamental (comme Shinya Yamanaka par exemple). J’avais déjà souligné il y a quelques années le contraste entre un Yamanaka qui faisait vraiment de la science par rapport à un Daley faisant plus de la technologie médicale à mon avis. Mes contacts récents avec des chercheurs passés par la case médecine m’ont convaincu personnellement qu’il y a effectivement une vraie différence de culture épistémique, qui fait que les médecins de formation ont une vision plus globale des choses et très importante scientifiquement au stade actuel de l’avancée de la science biologique. Je ne suis pourtant pas sûr que les financements suivront, pour des raisons scientifico-politiques – ne pas négliger l’attrait des grosses machines ;) .

12 Responses to “Paroles de sage prospectif”

  1. vf Says:

    Assez d’accord.
    ça rejoint le débat stérile avec Dracola sur un autre site : beaucoup de personnes confondent les faits expérimentaux et les faits scientifiques. Ce n’est pas parce que j’observe un fait, même au laboratoire, que ce fait constitue un élément d’une connaissance scientifique permettant de bâtir quelque chose; c’est Poincaré qui disait que l’on fait de la science avec des faits comme on fait une maison avec des pierres, mais un tas de faits n’est pas plus une science, qu’un tas de pierres n’est une maison.
    Le vrac de faits, a posteriori, s’éclairent et s’intègrent dans la science, mais pour construire une approche scientifique d’un problème, l’acculumation de faits, même “expérimentaux” n’est pas forcément le meilleur moyen.

  2. Lam Son Says:

    Comme l’écrivait Stephen J. Gould, les faits étaient les mêmes avant et après l’acceptation de la théorie de la dérive des continents. Ce qui a changé c’est que la théorie a change.

    Avant, les partisans de la dérive des continents pensaient que les continents “labouraient” le fond des océans. “Ridicule !” s’esclaffaient les géologues. Et ils ignoraient volontairement les changements d’orientation magnétique et imaginaient des isthmes disparus qui auraient relié entre-eux les continents éloignés, expliquant ainsi la ressemblance des fossiles.

    Et puis la théorie a changé, on a “inventé” les plaques tectoniques et les mêmes faits ont arrêté d’être ignorés pour devenir des preuves.

  3. Xochipilli Says:

    Je vous suis, bien sûr, mais l’accumulation massive de données change tout de même considérablement la manière dont on théorise ou innove. Deux exemples:

    - le premier, que je reprends dans mon dernier billet concerne Eureqa, un programme assez génial permettant d’extraire l’équation de n’importe quel système, rien qu’en cumulant l’observation des variables. Bien sûr, si l’on n’a aucune idée de ce que c’est qu’une force, l’équation F=ma est toujours inintelligible. Mais le grand changement d’approche avec Isaac Newton, c’est que lui devait d’abord théoriser avant de pouvoir formaliser, alors qu’aujourd’hui on a l’équation avant d’avoir l’interprétation.

    - Le second exemple c’est le datamining au service de la prédiction. Sur la base de millions d’observations statistiques sur les données télécom des opérateurs mobiles, on a découvert qu’on pouvait prédire avec une assez bonne précision le profil et le comportement des utilisateurs de mobiles en observant statistiquement leurs déplacements. Certes ce n’est plus de la science, mais de la technologie. Il n’empêche qu’on a sauté l’étape de la théorie pour aller directement sur celle de la modélisation. Or en médecine, on a très souvent avancé en découvrant par hasard et en théorisant après coup. Il n’est donc pas déraisonnable de penser que le même type de datacrunching en biologie pourrait aider à industrialiser cette fabrique d’heureux hasards…

  4. Tom Roud Says:

    Le truc, c’est effectivement qu’on voudrait faire croire que les faits peuvent révéler la science en dehors de toute théorie. C’est, je pense, faux. Les exemples cités par Xochipilli sont à mon avis typiques de surventes de résultats :
    - Eureka présuppose certaines formes fonctionnelles, et n’est à mon avis pas à l’abri de nombreux faux positifs. L’exemple typique, c’est que dans le papier original de Lipson sur le sujet , à la fin, ils trient A LA MAIN la forme fonctionnelle qui colle avec la physique du pendule ( je m’étais moqué ici : http://tomroud.owni.fr/2009/04/09/le-meilleur-des-mondes-scientifiques/ ). Pour un problème compliqué où on n’a aucune idée du résultat, ça pourrait être plus une perte de temps qu’autre chose. Entre parenthèses, le cas “typique” de systèmes dynamiques, c’est des trajectoires chaotiques, pas des pendules, je ne suis pas sûr qu’Eureka marche alors.
    - sur le deuxième exemple de suivi du téléphone, personne ne me fera croire qu’on n’a aucune idée a priori de la forme du résultat final et qu’on fait vraiment les choses en aveugle. D’ailleurs, u point important dans cette discussion est que toute mesure expérimentale se fait avec un a priori sur la structure des données et les résultats attendus : c’est bien normal comme on ne peut pas enregistrer la position de tout quark en tout temps, il faut bien faire des choix des quantités qu’on considère comme relevantes. Donc on a enregistré la position des personnes au cours du temps, et, grande surprise, on a découvert des patterns. Mais si on avait enregistré à la place la température du téléphone au cours du temps, je ne suis pas sûr qu’on aurait vu grand chose. C’est normal : la position est une donnée relevante contrairement à la température, on le sait a priori, donc on la mesure et on trouve des patterns anticipés. Dans le même ordre d’idée, comme le dit Lam Son, on refuse aussi toujours de voir ce qui ne rentre pas dans son propre paradigme.

    Bref, le data mining, je pense que ça marche effectivement pour les problèmes relativement simples quand on a déjà une bonne idée des formes fonctionnelles à trouver. C’est (peut-être) utile pour raffiner un modèle existant, mais certainement pas pour comprendre des trucs incompréhensibles a priori. Je me prends d’ailleurs à imaginer ce qu’aurait donné du data mining appliqué à la mécanique quantique utilisant Eureka qui est purement classique par exemple …

  5. Xochipilli Says:

    Je ne suis évidemment pas expert du domaine, mais ce qui m’avait frappé c’est que dans le cas de Eureqa appliqué à un système biologique, le logiciel a fini par trouver une équation du système qui non seulement décrivait les patterns observables, mais en prédisait d’autres que les chercheurs ont vérifié après coup. Par contre ils n’ont toujours pas compris le sens physique de cette équation étrange. S’il n’y a pas survente de ces résultats, ce qui est toujours possible, ce serait quand même stupéfiant. Malheureusement, je n’ai pas réussi à trouver la publication qui détaille tout ça (ma source est celle du podcast de Radiolab)

  6. Nicolas Says:

    Je ne comprends pas bien cette karcherisation de la “high-throughput biology”. Quelqu’un peut il prétendre qu’il ne fallait pas établir la séquence du génome humain? Que les catalogues de variabilité actuellement en cours sont inutiles?
    Entendons nous bien, ces travaux n’aboutiront pas automatiquement sur des nouvelles thérapies (mais je ne sais pas si ces affirmations sont présentes dans les articles scientifiques ou sont le fait des chargés de communication et des PublicRelations des instituts participants, avec la bienveillance, ou la négligence des chercheurs associés). Comme base de données pour faire de la recherche, c’est extremement utile. Pour comprendre les fonctions encodés par le génome, je ne vois pas beaucoup d’autres approches aussi puissantes…

  7. vf Says:

    Le nombre de coeurs chez les chordés est variable. Il existe des animaux sans coeur; Il existe des animaux qui ont un seul coeur, et d’autres qui ont un second coeur, caudal.
    C’est certainement lié au génôme.

    Est-ce que vous pouvez me dire comment, en lisant la base de donnée “génôme” , vous déduisez que certains animaux n’ont pas de coeur, d’autres ont un seul coeur, et d’autres deux (approche bottom up).

    En réalité, l’observation de la brisure de symétrie initiale, et des mouvements des tissus explique très bien pourquoi ces différents cas existent (approche top down), et cela pointe quelle est la nature des “fonctions” codées (ça évite de chercher n’importe quoi).

  8. Roud Says:

    @ Nicolas : je pense quand même qu’on nous a vendus le génome en nous disant que ça allait tout soigner, y compris côté scientifique. De toutes façons, dès que tu rédiges une grant, tu est OBLIGE de mettre une application médicale pour maximiser tes chances de l’avoir puisque le fondamental n’intéresse pas nos dirigeants, et de moins en moins aussi les scientifiques par sélection naturelle dans l’académique. Regarde ce qui se passe pour les stem cells.

    Aprè, je ne suis pas dans le domaine, mais pour comprendre les fonctions biologiques, avoir des gènes c’est bien, mais comprendre leur interaction et l’émergence qui s’en suit c’est à mon avis beaucoup mieux. Juste un exemple : on sait maintenant que beaucoup de régulations passent par des structures 3D particulières du génome dans la cellule. En quoi connaître la séquence du génome nous informe vraiment sur sa structure 3D ? Certes, ce n’est pas complètement décorrélé, mais ça me paraît être un exemple typique où on se trompe de niveau à étudier, et où on a fait du high-throughput avec un paradigme en tête en pensant que la connaissance allait émerger plutôt que de poser la question scientifique d’abord.

    @vf : c’est quoi les exemples d’animaux avec 2 coeurs ? Sinon pour reprendre votre métaphore, on peut vous répondre que peut-être un gène ou un allèle particulier “explique” l’apparence du deuxième coeur (peut-être qu’il est présent uniquement chez les animaux ayant celui-ci). Du coup, la vraie question en fait est qu’est-ce qu’on met derrière le mot “explication”, je vous rejoins probablement pour dire que la présence ou l’expression de tel ou tel gène n’est pas une explication pour moi, ce qui m’intéresse c’est le processus.

  9. vf Says:

    les myxines

  10. Nicolas Says:

    les “structures 3D particulières du génome”, ca s’etudie aussi par approche “omics”…

    VF, je prendrai le problème par l’autre bout, et me demanderai si ce problème n’utilisera jamais de données issues de la génomique. Phylogénie, mutations, connaissance des facteurs d’interactions, proteiques et/ou petits RNA… L’approche bottom-up n’aboutira à rien, mais tout autre approche utilisera bien à un moment ou à un autre ces “bases de données”. Donc il faut bien les construire et les comprendre…

    C’est une erreur de survendre les résultats de la génomique, OK, mais c’est aussi de la naiveté de croire tout ce qu’on nous raconte. Ca ne résoud pas tout les problèmes (et peut etre meme que ca n’en résoud aucun), mais c’est diablement utile pour un tas de recherche.

    Et oui, je suis très biaisé, complètement impliqué dans des projets d’annotations du génome de la Drosophile. C’est de la science de bourrin, mais c’est pas totalement inutile. Le commentaire de Brenner sur “low-input, high-throughput, no-output biology”, c’est un peu n’importe quoi (with all due respect). J’espère qu’il lira l’article de Science sur l’annotation de C.elegans à paraitre dans quelques semaines ;-)

  11. Matières Vivantes » Blog Archive » Question : Wikileaks, biologie des données, émergence Says:

    [...] Sydney Brenner qualifiait-il dans une conférence récente le phénomène de “biologie des données” : en somme, la génération de données [...]

  12. Wikileaks et biologie, utilisation similaire des données? » Article » OwniSciences, Société, découvertes et culture scientifique Says:

    [...] Sydney Brenner qualifiait-il dans une conférence récente le phénomène de “biologie des données” : en somme, la génération de données brutes ne [...]


Nombre de pages vues : 1031720