La revue du projet

La revue du projet
Accueil
 
 
 
 

Est-ce que la nature calcule ?, Entretien avec Yannis Hausberg

L'informatique est partout, les objets connectés nous envahissent, ce ne sont que calculs artificiels ! Mais la nature elle-même calcule-t-elle ? La question n'est pas si abstraite.
 

Pourquoi t'es-tu lancé dans la philosophie des sciences, après un bac L ?

Yannis Hausberg. Ni pour l’argent, ni pour la gloire. J'étais plutôt intéressé par le dessin, la sculpture, l'histoire de l'art. Mes quatre grands-parents étaient enseignants, ma mère documentaliste, férue de littérature jeunesse, donc j'ai baigné dans les livres et le choix d’une première littéraire m’est apparu comme la voie du moindre effort. En terminale, c'est la rencontre avec mon professeur de philosophie (traducteur et auteur), Patrick Vighetti, disciple de François Dagognet (1924-2015) qui a été décisive. Or Dagognet, philosophe et médecin, a beaucoup écrit sur la science, bien que son œuvre excède largement ce seul thème. Cela m'a conduit à étudier l’épistémologie française rationaliste : Gaston Bachelard et Georges Canguilhem.

Chez un jeune, l'enthousiasme pour un sujet dépend en général bien plus des professeurs que des domaines. Si je me suis tourné vers la philosophie des scien­ces et la théorie la connaissance, je ne crois pas devoir délaisser la morale, la politique, la métaphysique ou la philosophie de l’art. La division du travail en philosophie est nécessaire et même souhaitable, compte tenu de l’extraordinaire quantité d’informations que l’humanité produit à tout instant dans le monde, mais il ne faut pas renoncer à penser le réel dans sa complexité et sous tous ses aspects.
 

Comment se passent ces études ?

Y. H. Les études de philosophie prépa­rent surtout aux concours de l’enseignement, le CAPES et l'agrégation. Les cours prennent le plus souvent la forme d’une histoire des idées, afin de développer une culture philosophique assez large. Il existe certes, en master, des parcours de recherche et « professionnalisants » (c'est-à-dire ouverts sur l’entreprise), mais ces choix d'orientation surviennent tard dans un cursus. Il n’y a donc pas vraiment d’ « études de philosophie des scien­ces » jusqu'à bac + 4. Je me réjouis de la création cette année à Lyon d’un nouveau master, « Logique histoire et philosophie des sciences et des techniques », qui propose à des étudiants d’horizons divers une formation sous la forme de trois principaux axes.

1) L’histoire des sciences, afin de cons­tituer une modeste culture scientifique : conceptions aristotéliciennes de la matière, théorie newtonienne, naissance du calcul des probabilités, etc.

2) L’épistémologie, soit un retour réflexif sur la façon dont se constitue le savoir scientifique : concepts d’expérience, d’explication, de démonstration ou de théorie. Elle s’enseigne à partir des grandes conceptions de la connaissance développées dans l’histoire (rationa­lisme, réalisme, empirisme, etc.) par d’éminents penseurs (Aristote, Des­cartes, Kant, Popper, Kuhn, etc.).

3) La logique, qui introduit à une certaine pensée formalisée : syllogistique d’Aristote, logique de Port-Royal, théorie des ensembles, etc.

Il serait bon d'y joindre l’étude des scien­ces elles-mêmes, de faciliter et encoura­ger la possibilité d’une double formation, en ne séparant plus autant les études en sciences humaines de celles en sciences « dures ».
 

Venons-en à ton sujet : est-ce que la nature calcule ?

Y. H. Il faut revenir aux origines de l’informatique dans les années 1930, où des mathématiciens ont cherché à caractériser rigoureusement la notion de calcul à la suite d’importants débats sur les fondements des mathématiques, avec le « problème de la décision » de David Hilbert. Est-il toujours possible de décider par une procédure mécanique – nous di­rions aujourd’hui un algorithme – si un énoncé est « démontrable » dans un système formel ? En 1936, Alan M. Turing répond négativement au problème de Hilbert, en introduisant la notion de calcul effectif : tout ce qui peut être calculé par un humain muni seulement d’un papier et d’un crayon et opérant méca­niquement suivant un ensemble de règles de calcul en un nombre fini d’éta­pes. Cet objet mathématique abstrait est appelé « machine de Turing ».

En 1936 également, Alonzo Church arrive  au même résultat à partir d’un autre formalisme : le « lambda-calcul ». Puis viennent d’autres formalismes qui se révèlent tous équivalents. Cela conduit Church, puis Turing, à formuler une thèse extrêmement robuste selon laquelle « tout ce qui est effectivement calculable est calculable par une machine de Turing, ou tout autre formalisme équivalent ». Cette affirmation, appelée « thèse de Church », prétend énoncer les justes limites de ce qui est calculable dans le cadre logico-mathématique.

Mais on ressent vite la nécessité de distinguer deux formes de cette thèse : l’une, algorithmique, et l’autre, physique. La première affirme que « tout ce qui est calculable par un algorithme est calculable par une machine de Turing », elle porte sur la puissance des systèmes formels. La seconde dit que « tout ce qui est calculable par un système physique (une machine) est calculable par une machine de Turing » et porte sur le monde physique (la nature). Ici, la notion informelle de machine, qui figure dans l’énoncé de la thèse, obéit aux lois physiques et est soumise à des contraintes essentiellement liées au temps, à l’espace et à l’énergie nécessaires pour effectuer un calcul. Si la première forme fait l’objet d’un relatif consensus au sein de la communauté des spécialistes, la seconde est loin de faire l’unanimité.

En 1978, Robin Gandy « démontre » la forme physique de la thèse de Church : il suppose pour cela un espace à trois dimensions, puis formule deux hypothè­ses sur la nature physique.

1) La finitude de la densité de l’information : un volume d’espace fini contient une quantité finie d’informations – dit autrement, un système fini ne peut se trouver que dans un nombre d’états fini. Nous imaginons mal qu’une clé USB, par exemple, puisse contenir une infinité d’informations (ou bits).

2) La finitude de la vitesse de transmission de l’information, qui exprime l’idée que l’influence causale entre deux systèmes physiques est bornée par la vitesse de la lumière.

L’argumentation de Gandy s’applique aux systèmes physiques dynamiques discrets, c’est-à-dire dont l’évolution au cours du temps est entièrement déterminée par l’état initial.

La forme physique de la thèse de Church porte avec elle une vision computationnelle et algorithmique de la nature et de ses lois. Dans son livre, Les Métamorphoses du calcul (2007), Gilles Dowek prend l’exemple de la loi de la chute des corps : la distance parcourue en un temps donné par une balle en chute libre peut être calculée par un algorithme, c’est-à-dire par un ensemble de règles de calcul.

L’adoption de la thèse de Church physique éclairerait les raisons pour lesquelles les phénomènes naturels se laissent si bien décrire par les mathématiques. Mais est-elle toujours aussi valide que dans ce cas simple ? C'est ce qu'ont contesté Giuseppe Longo et Thierry Paul, lors d'un colloque de septembre 2006 (Ouvrir la logique au monde, dir. J.-B. Joinet & S. Tronçon, Hermann, 2009).
 

Qu'est-ce que la polémique Dowek-Longo ?

Y. H. La controverse oppose deux visions de la connaissance : l’une, ancrée sur le discret et le fini ; l’autre, sur l’infini et le continu. Pour la première, défendue par Dowek, connaître un phénomène, c’est pouvoir le décrire par un algorithme. Pour la seconde, défendue par Longo, la connaissance scientifique est irréductible au calcul : la stricte assimilation des processus physiques à des procédures de calcul confond nos modes de connaissance et d’intelligibilité des phéno­mènes naturels avec les propriétés des phénomènes eux-mêmes. Pour lui, malgré les succès de l’informatique dans les sciences, il convient de conserver la pluralité des approches et des modèles qui caractérise la démarche scientifique. Il fait valoir notamment la place irréductible du concept d’infini en mathématiques (passage à la limite) et en physique (mesure classique par un intervalle réel) ainsi que les modèles continus qui leur sont associés et qui ont permis les plus belles conquêtes de la science, y compris de la mécanique quantique (indéterministe et aléatoire).

Mes recherches se focalisent sur l’un des aspects de la controverse : des systèmes dynamiques dits « chaotiques » (c'est-à-dire des systèmes déterministes dont l’évolution au cours d’un temps suffi­samment long rend toute prédiction impossible en raison de leur sensibilité aux conditions initiales) constituent-ils une réfutation de la thèse de Church physique ? Autrement dit, la théorie du chaos est-elle compatible avec la calculabilité ? L’imprédictibilité est-elle le signe nécessaire et suffisant d’une incalculabilité de principe ? L’étude de ces problèmes conduit à s’interroger sur les notions d’aléatoire, de non-détermi­nisme et de prédiction ainsi que sur les rapports qu’elles entretiennent avec le concept de calcul.

C'est la question des limites de notre connaissance et des moyens par lesquels on peut espérer connaître ce qui est connaissable. Le fait de ne pas connaître d’algorithme qui décrive correctement un phénomène implique-

t-il que ce phénomène est inconnais­sable ? Ou bien faut-il distinguer l’idée d’une calculabilité de principe d’une accessibilité pratique au calcul ?
 

Quelles retombées pratiques peuvent avoir une question apparemment si abstraite ?

Y. H. C’est une question difficile. Cela aide d'abord à une redéfinition des fondements des mathématiques sur des bases plus constructivistes et calculables, en vue de faciliter les liens entre mathématiques et informatique, et permettre la vérification automatisée des démonstrations.

Il y a aussi, derrière cette question, de nombreux enjeux techniques : ordinateurs quantiques, moteurs moléculaires et conséquences pratiques que leur développement pourrait avoir sur la médecine, la sécurité, l’économie et finalement sur la société tout entière. Nous vivons dans un monde transformé par les ordinateurs et leurs algorithmes, ce n’est pas près de s’arrêter : automatisation de nombreuses tâches parmi les plus ingrates jadis dévolues aux hommes (ce qui modifie l’organisation du travail), fiabilité des systèmes complexes, des techniques de communication, etc. Il apparaît donc urgent de comprendre la révolution informatique afin de maîtriser son évolution et d’être en mesure de réfléchir lucidement aux futurs modèles de société que nous souhaitons. Le récent livre de Serge Abiteboul et Gilles Dowek, Le Temps des algorithmes  (Le Pommier, 2017), apporte un éclairage extrêmement clair sur les enjeux pratiques qui se posent à nous à l’ère du numérique. 
 

*Yannis Hausberg est étudiant en philosophie des sciences à l'université Lyon-III.
Propos recueillis par Pierre Crépel.

La Revue du projet, n°66/67 avril-mai 2017

Il y a actuellement 0 réactions

Vous devez vous identifier ou créer un compte pour écrire des commentaires.