La revue du projet

La revue du projet
Accueil
 
 
 
 

Modéliser-simuler (2), Entretien avec Guillaume Beslon*

Dans le n° 30-31 (octobre 2013), nous avions abordé la « modélisation » et la « simulation » avec une philosophe des sciences. Nous en débattons aujourd’hui avec un informaticien travaillant sur la modélisation de systèmes biologiques complexes.

Ya-t-il un seul type de modèle en science et qu’est-ce que la modélisation apporte aux sciences ?
Il existe une très grande variété de modèles mais on peut les distinguer suivant leur usage : il y a ceux qui servent à comprendre et ceux qui servent à prédire. Dans le premier cas, j’ai un phénomène et je veux construire une théorie ; dans le second, j’ai déjà une théorie mais je veux prédire ce qui va se passer sous certaines conditions. Grossièrement, toute activité scientifique comporte deux phases : la « découverte » et la « justification ». Les modèles explicatifs sont intéressants pour la première phase car ils permettent de créer des situations artificielles, pour développer l’imaginaire ou raisonner. Ce sont des béquilles mentales, grâce auxquelles on peut entrevoir « ce qui se passerait si… », par exemple en poussant le modèle vers ses cas limites. L’objectif du modèle explicatif c’est donc d’aider à énoncer des théories qui vont ensuite de se passer de lui…

Et les modèles prédictifs ? Est-il possible de prédire sans comprendre ?
Heureusement ! On a su prédire les éclipses bien avant de connaître les lois de Newton. Mais les modèles prédictifs peuvent se révéler dangereux, être sur ou sous-interprétés par des gens qui n’en connaissent pas les limites, surtout lorsqu’ils circulent hors du champ scientifique. Prenons l’exemple du climat, il y a des polémiques sur la qualité des modèles produits par le GIEC pour prévoir le réchauffement climatique. Pourtant, dans ce cas, il y a peu de risques parce que ces modèles sont interprétés par ceux-là mêmes qui les ont élaborés. En revanche, lorsque les modèles sont montrés au grand public, c’est souvent de façon séduisante, ils ont alors un côté magique, lié à l’amélioration des techniques de visualisation, comme dans la publicité. Pourtant, la beauté des images n’a strictement rien à voir avec la vérité ! Cela dit, l’affectif, l’émotionnel ne sont pas toujours à rejeter, ils sont même nécessaires au scientifique dans le cadre de sa recherche. Simplement ils doivent être pris avec précaution.

La modélisation et la simulation forment-elles une révolution dans les sciences ?
Je ne le pense pas. Remplacer une vraie soufflerie par des simulations sur ordinateur, c’est du prédictif, on est dans le cadre d’une théorie sous-jacente, cela coûte moins cher et ça ne change pas beaucoup la science : une soufflerie, c’est déjà un modèle ! Ce qui change c’est l’apport de l’ordinateur qui décuple les possibilités. Il y a là un nouvel outil qui peut déboucher sur une nouvelle façon de faire des sciences et provoquer à terme une révolution, mais la simulation n’est pas une révolution en elle-même. Un peu comme le microscope qui est le résultat de plusieurs siècles de progrès en optique mais qui provoque une rupture en biologie avec, par exemple, la découverte de la cellule… Un progrès linéaire d’une science provoque une révolution dans une autre !

Il y a donc un lien avec l’interdisciplinarité ? Y en a-t-il aussi un avec la complexité ?
Oui. Les systèmes complexes comportent beaucoup d’éléments et d’interactions et ont en général des dynamiques très… complexes ! Il est facile de se tromper sur leur interprétation et très difficile d’en construire des modèles, sauf si on fait appel à un outil de calcul plus efficace que nous pour gérer cette multitude : l’ordinateur. Là encore, la révolution c’est l’ordinateur qui permet d’étendre le champ d’application de la modélisation et de la simulation à des objets qui s’y prêtaient mal auparavant. L’interdisciplinarité peut certes réclamer des modélisations, mais là où la simulation se développe le plus, c’est quand même à l’intérieur de disciplines bien constituées comme la mécanique des fluides ou la physique nucléaire. Cela dit, il y a un lien indirect avec l’interdisciplinarité, puisqu’on va devoir mêler les disciplines correspondant aux objets modélisés avec les disciplines correspondant aux outils de modélisation.

Donc la nouveauté c’est vraiment l’ordinateur ?
Oui, il apporte la capacité de simuler, de mettre le modèle en mouvement, de le faire agir. Il apporte aussi des données totalement inédites sur des objets jusque-là très mal connus, voire ignorés, il permet des analyses exploratoires très ouvertes, il rend possible des démarches qui existaient souvent mais avec une efficacité beaucoup plus limitée. En analysant par ordinateur des millions de mails ou de coups de téléphone, au lieu de quelques milliers de lettres, on peut comprendre des dynamiques sociales qui nous échappaient. Pour ce faire, on réalise des expériences en simulation, qu’on ne pourrait évidemment pas faire à l’échelle de la société humaine. C’est ce qu’on appelle les « sciences computationnelles » : le modèle est utilisé comme un outil expérimental et c’est l’ordinateur qui calcule le résultat des expériences.
Peut-on avoir un exemple ?
Prenons les déplacements urbains, deux grandes questions se posent : Existe-t-il des lois ? Comment améliorer le réseau ? Expliquer et prédire. Un progrès dans l’explication permet un progrès dans la prédiction, l’idéal serait donc d’essayer de comprendre avant de passer à l’action. Mais on peut aussi utiliser des données de terrain pour prédire sans comprendre (quand il pleut il y a souvent des bouchons, il pleut aujourd’hui, il va probablement y avoir un bouchon). Or, si on veut tester des hypothèses nouvelles, on n’a plus de données et on ne peut pas tout tester « en vrai ». C’est là que les modèles sont utiles car ils complètent notre intuition ou notre « expertise », surtout que, dans le cas des systèmes complexes, celles-ci sont souvent prises en défaut. Voici un exemple : on peut penser que, pour éviter qu’un bouchon se forme, il faut conduire plus vite (les voitures s’évacuent plus vite). C’est une « interprétation naturelle ». La modélisation permet de la mettre à l’épreuve en essayant de comprendre, sur un modèle, l’effet de la vitesse maximum sur l’apparition des bouchons. On montre facilement que, plus la vitesse limite est élevée, plus les interactions entre les véhicules sont nombreuses et saccadées, ce qui réduit la vitesse moyenne et augmente le risque de bouchon ! La modélisation a ici permis de contredire l’interprétation naturelle : au-delà d’un certain nombre de véhicules, en diminuant la vitesse limite, on augmente la vitesse moyenne !

Et en biologie, dans ton labo ?
Dans mon équipe, nous étudions les modèles de l’évolution darwinienne. Simulons des individus, donnons-leur la capacité de se reproduire (avec mutation) et mettons-les en compétition pour les ressources. Ils vont évoluer dans la machine. L’interprétation naturelle est que le meilleur individu gagne (survival of the fittest). Mais c’est plus compliqué, car la variation peut être elle-même sélectionnée. Un individu très bon, qui varie trop, perd devant un individu un peu moins bon qui varie moins : le premier a beaucoup d’enfants, mais peu d’entre eux conservent les qualités de ses parents. D’un autre côté, un peu de variation est nécessaire pour que les individus s’adaptent continûment à un environnement changeant. Derrière la sélection par le succès reproductif peut donc se cacher une sélection pour la « robustesse » ou pour la « variabilité » (en fait probablement pour un équilibre subtil entre les deux). Même si la théorie de Darwin est vieille de 150 ans, il reste encore beaucoup à comprendre. Mais lorsqu’on étudie l’évolution, on doit faire face à de grosses difficultés expérimentales (c’est long l’évolution !). La modélisation apporte un outil permettant de comprendre l’évolution dans toute sa généricité (et non l’évolution de telle ou telle espèce).
Ainsi, nous essayons de voir si l’évolution est capable d’agir sur ses propres mécanismes (nous appelons cela « évolution de l’évolution » ou « EvoEvo »). Pourquoi certains organismes, comme les bactéries, sont-ils capables d’évoluer très très vite ? La modélisation est indispensable pour l’expliquer, car le système réel (les bactéries) est beaucoup trop complexe et on ne peut pas le suivre pendant plusieurs millions d’années ni revenir trois milliards d’années en arrière pour voir comment l’évolution se comportait. En modélisant l’évolution d’organismes virtuels simplifiés, on peut facilement les suivre pendant plusieurs millions de générations (simulées) et regarder, par exemple, si l’évolution accélère. Il y a un enjeu important, par exemple pour comprendre comment les bactéries acquièrent si facilement des résistances aux antibiotiques.

Alors est-ce que la modélisation et la simulation nous entraînent inexorablement vers la big science, les grands centres de calcul et une gestion politique de la science, comme dans le cas du GIEC que tu citais ?
Non, les modèles explicatifs doivent rester artisanaux, c’est-à-dire compréhensibles et être analysés par les chercheurs qui les ont construits : chez nous on travaille à trois ou quatre ! Pour les modèles prédictifs, c’est différent, mais il n’y a pas de généralité. Il y a en a de petits, très simples et très efficaces, et d’autres qui sont énormes comme ceux du GIEC. Cela pose d’ailleurs une question difficile : face à deux modèles contradictoires A et B, qui croire ? Nous avons tendance à penser que le plus gros modèle, celui qui inclut le plus de facteurs, va être le plus juste. Mais alors on va toujours donner raison à celui qui a les moyens de construire le plus gros modèle, donc au plus riche (si l’un des deux est produit par une multinationale, vous aurez compris le vainqueur). Or, rien ne justifie cette tendance ! Certes, le nombre de facteurs pris en compte augmente le réalisme, mais il augmente aussi considérablement le nombre de paramètres. Or, la plupart sont souvent inconnus et estimés par les constructeurs du modèle, alors qu’ils sont susceptibles de modifier les conclusions. In fine, la seule chose qui reste c’est de se demander si on fait plus confiance à B qu’à A. Attention, cela ne veut pas dire que la modélisation est inutile ; simplement un modèle doit toujours être réalisé et analysé indépendamment des enjeux posés par ses résultats (c’est le cas, par exemple, pour le GIEC qui est de ce strict point de vue une très grande réussite). Avec le développement de la modélisation prédictive, la science se doit donc d’être encore plus indépendante des pouvoirs politiques et financiers. Malheureusement je n’ai pas l’impression qu’on en prenne le chemin...

*Guillaume Beslon est informaticien. Il est professeur à l’Institut national de sciences appliquées (INSA) de Lyon.

Propos recueillis par Pierre Crépel.

La Revue du projet, n° 35, mars 2014
 

Il y a actuellement 0 réactions

Vous devez vous identifier ou créer un compte pour écrire des commentaires.