Philosophie du numérique

Publié le 18 Août 2016

Sous titre: La place des modèles numériques dans la méthodologie scientifique

La société moderne contemporaine repose sur les progrès scientifiques réalisés depuis quelques centaines d’année. Pour ceux qui en douteraient, il faut rappeler que l’informatique, le monde internet, les smartphones, les GPS (la partie la plus visible de la modernité pour nos jeunes générations), reposent sur la physique, l’informatique, les mathématiques, entre autres. Le monde médical et biologique est également source d’énormes progrès pour la qualité de la vie et sa longévité. Tout ceci repose sur la méthode scientifique [1].

La méthode scientifique est une notion assez mal cernée, source de débats, reposant en grande partie sur des écrits théoriques publiés avant l’ère informatique. Le développement des modèles et approches numériques demande que nous nous questionnions sur la place du numérique dans la méthode scientifique.

Méthode scientifique et philosophie des sciences

D’un côté nous avons des centaines de milliers, voire des millions de scientifiques, ingénieurs et techniciens dans le monde, qui travaillent dans les nombreux domaines scientifiques, et utilisent une approche résultant d’une évolution historique, construite assez progressivement depuis l’époque de Galilée, Kepler et Descartes.

D’un autre côté, les philosophes des sciences ont tenté de décrire précisément comment fonctionne la science pour produire de la connaissance. La tâche n’est pas aisée et à ma connaissance n’est pas figée. Il s’agit, par exemple, d’expliquer pourquoi l’astronomie est une science et l’astrologie une croyance non scientifique [2]. Cette question a été le sujet de réflexions du Cercle de Vienne dans les années 1920-1930, avec Karl Popper qui a mis en question l’induction (provenant de la généralisation de résultats d’observations pour en produire une théorie) et proposé son célèbre principe de falsifiabilité. Parmi les acteurs importants dans ce domaine se trouvent Thomas Kuhn qui a proposé dans les années 1960 un principe de l’évolution des idées scientifiques basé sur des révolutions avec des changements de paradigmes, et un peu plus tard Paul Feyerabend qui proposait un principe assez anarchiste disant que tout est bon, pourvu que ça fonctionne. Un très bon livre sur ce sujet est celui de Alan Chalmers, intitulé Qu’est-ce que la Science ? Popper, Kuhn, Lakatos, Feyerabend, survol abrégé de la philosophie des sciences en 270 pages dont la seconde édition date de 1982. On peut aussi lire un pavé de 700 pages intitulé Précis de Philosophie des Sciences.

Ceci concerne une vision extérieure de la science, oscultée par des philosophes. Le plus connu de ces philosophes des sciences est Karl Popper, disparu en 1994, mais dont l’essentiel de la pensée sur le sujet date des années 1930. Thomas Kuhn est mort en 1996 mais son ouvrage principal, Structure des révolutions scientifiques, date de 1962. Feyerabend est également mort en 1994 mais son approche appelée anarchisme épistémologique me semble peu convainquant, correspondant plutôt à un aveu d’impuissance dans la caractérisation de la méthode scientifique. Quoi qu’il en soit, ces penseurs de la philosophie scientifique, tous disparus dans les années 1990, n’ont pas intégré la révolution informatique dans leurs systèmes de pensée. Ils auraient pu le faire, mais leur réflexion était déjà figée bien avant l’ère du numérique et il me semble qu’ils n’ont pas pris en compte les grands changements apportés par le numérique dans leur réflexion et leurs écrits à la fin de leur vie. Je pense donc qu’il y a ici une lacune. J’esquisse quelques pistes de réflexions dans ce domaine, montrant que ce qui émerge des approches issues de ces illustres anciens/quasi contemporains demande d’être alimenté par des réflexions complémentaires.

Vision de la méthode scientifique par les acteurs eux-mêmes

Avant de passer à la question du numérique et de l’informatique, j’exprime ici quelques principes utilisés par les chercheurs eux-mêmes, dans leur pratique quotidienne de la science. Evidemment c’est une généralisation, car chaque discipline a des habitudes différentes, et chaque chercheur voit sans doute avec un œil personnel les principes flous de sa discipline. La méthodologie scientifique, par sa pratique par les milliers ou millions de chercheurs de par le monde, n’obéit pas à des textes légaux qui régiraient leur pratique quotidienne. Néanmoins, s’il faut se risquer à établir des principes généraux, assez flous dans leur définition, je dirais qu’ils sont les suivants :

  • originalité (on ne publie pas quelque chose qui a déjà été montré)
  • citations (on cite les travaux proches sur lesquels on se base, ou que l’on complète ou critique)
  • interprétation proposée, justifiée de façon logique et quantifiée par les mesures et analyses (en gros, on ne dit pas que 2+2=5)
  • acceptation de la critique (la critique fait partie de la méthode scientifique en pratique)
  • description exhaustive permettant de reproduire les résultats (un résultat ou une découverte ne peut être accepté comme tel, que si des collègues peuvent les vérifier et les reproduire dans des travaux ultérieurs)
  • recherche de l’universalité (concept flou, indiquant qu’on cherche quelque part une explication théorique, et pas seulement des résultats descriptifs)
  • dans certains cas possibilité de prédictions (si le résultat est assez général et universel, et si une théorie lui est associée, alors il contient des prédictions qui peuvent être testées)

Tout ceci est assez flou, montrant que le domaine n’est pas clos. Mais cela donne certains principes généraux qui sont implicites dans la pratique quotidienne des sciences de la nature et de la société.

La théorie

La façon dont fonctionnent les sciences expérimentales est une ronde, un recommencement perpétuel faisant appel à la théorie, permettant d’imaginer des nouvelles expériences, qui amènent des nouvelles interrogations et de nouvelles théories, qui, etc. bouclent et reviennent à de nouvelles expériences pour les tester. La place de la théorie est ici essentielle, c’est une conceptualisation, une généralisation, qui permet d’inventer de nouvelles expériences. L’expérience pure, abstraite, hors de toute théorie, permettant de générer des faits nouveaux, n’existe pas. Ceci est un résultat important procuré par l’épistémologie : un fait isolé n’existe pas. L’avancée scientifique repose non sur les faits, mais sur leur interprétation, donc leur théorisation.

Les observations issus de mesures, ont besoin d’être interprétés pour conserver leur statut, ils ont besoin d’être généralisable, de s’insérer dans une interprétation universelle, et de finalement s’insérer dans une théorie. Lorsqu’une observation a été bien étayée, confirmée, comprise, elle devient un fait. Le « fait » a besoin d’une théorie pour avoir une existence. La théorie est fondamentale dans la méthodologie scientifique. C’est du moins mon interprétation personnelle. Ici je m’éloigne de ce que j’ai lu dans les ouvrages classiques car, on l’a vu, la philosophie des sciences n’est pas toujours très proche de la pratique scientifique.

L’avènement des modèles numériques

Les modèles sont des versions simplifiées, idéalisées, de théories. Lorsque la théorie est trop complexe pour être résolue, ou trop abstraite, des hypothèses doivent être admises, permettant de simplifier le problème pour l’explorer. Les résultats issus de modèles peuvent ensuite servir à mieux comprendre le modèle théorique global. Par exemple, la dynamique de l’atmosphère obéit aux équations de Navier Stokes, avec également des équations thermodynamiques. Ce sont des équations issues de la dynamiques des fluides et des échanges de chaleur ; ces équations générales sont trop complexes pour êtres résolues dans notre connaissance théorique actuelle.

Alors on peut chercheur à simplifier. Le chercheur Edward Lorenz a ainsi proposé en 1963 des équations très simplifiées, issues des équations de Navier Stokes, pour décrire la dynamique de l’atmosphère. Il a produit un modèle atmosphérique, très simplifié, avec 3 inconnues. Il a montré que son système était chaotique. C’est-à-dire qu’un petit changement dans les conditions initiales amenait à d’énormes changements dans la solution numérique. Il a ainsi redécouvert ce que le mathématicien Henri Poincaré avait déjà proposé dans ses écrits philosophiques à la fin du XIXe siècle, le chaos. Lorenz a ainsi énoncé le mythe de l’effet papillon en 1972 : « le battement d’aile d’un papillon au Brésil peut-il provoquer une tornade au Texas ? ». Depuis ce premier travail numérique faisant appel à la numérisation informatique d’un problème scientifique, les chercheurs en physique statistique, en modélisation numérique, en mathématiques appliquées, en mécanique numérique, en géophysique numérique, utilisent quotidiennement l’outil numérique, informatique, dans leurs recherches. Ce domaine est en explosion sans doute exponentielle depuis les années 1960. Dans les années 2000 et actuellement, de gros calculateurs sont utilisés pour résoudre des équations et faire tourner des modèles, permettant de nouveaux résultats impossibles à réaliser il y a quelques années. Le progrès est constant, les ordinateurs de plus en plus puissants, les modèles de plus en plus complexes.

Les journalistes décrivant ces travaux manquent de superlatifs pour exprimer la complexité de ce qui est modélisé. Certains modèles demandent de tourner pendant plusieurs semaines sur les ordinateurs les plus puissants. Ces progrès importants et la place prise par la modélisation numérique, demandent de se questionner sur leur place dans la méthode scientifique. D’autant plus que les glorieux anciens, Popper, Lakatos, Kuhn, Feyerabend, n’ont pas connu ceci, ou s’ils l’ont connu à la fin de leur vie dans les années 1990 ne l’ont pas pris en compte dans leurs théories de la science.

Où placer les modèles dans la méthode scientifique ?

Il est temps de se poser la question de la place des modèles dans la méthode scientifique. Je n’ai pas de réponse absolue à cette question, qui est d’une importance grandissante. Je me contente ici de poser quelques questions, et d’énoncer quelques points provenant de ma réflexion personnelle.

Mon domaine d’origine est la mécanique des fluides. Dans ce domaine, il existe une équation de base appelée équation de Navier-Stokes, qui régit le mouvement des fluides. Cette équation est universelle, et même si elle est quelquefois remise en question, la grande majorité des chercheurs en mécanique des fluides admet sa validité. Le problème est que cette équation n’est pas résoluble mathématiquement. Son étude fait d’ailleurs partie des problèmes mis en avant par l’Institut Clay en 1999, décrivant plusieurs questions mathématiques importantes à résoudre, appelés les "Millenium problems" et pour lesquels il met en place un prix de un million de dollars. Cette équation est « non-linéaire » et ses solutions mathématiques sont pour l’instant inconnues. Le problème, c’est que la majorité des fluides dans la nature obéissent à cette équation (atmosphère, océan, fleuves, planètes gazeuses comme Jupiter, Saturne et Neptune,…). La compréhension de cette équation et de ses propriétés est importante également en ingénierie, pour mieux construire nos avions, nos voitures, nos trains, et aussi nos réacteurs, nos industries nucléaires, notre industrie chimique, etc.

Comme nous ne savons pas résoudre mathématiquement cette équation, et comme, nous l’avons vu, elle a des implications pratiques gigantesques pour notre vie courante, on en réalise des modèles. Ensuite on étudie les modèle soit sur le papier, soit (le plus souvent) numériquement.

D’où mon interrogation méthodologique, sur ce cas en particulier, mais sans doute généralisable:

Soit le modèle est issu d’une simplification de la théorie. Exemple : le modèle de Lorenz, on alors les modèles plus sophistiqués, contenant 1000 paramètres, permettant de décrire une situation physique données (par exemple l’écoulement autour d’un objet comme une voiture). Dans ce cas les résultats issus de ce modèle numérique, provenant d’une simplification du monde réel, avec des hypothèses multiples, ont un statut très particulier. Il s’agit d’un monde virtuel simplifié, mais ses résultats sont tributaires de la validité des hypothèses qui ont été faites. Si le modèle est trop simplifié, les conclusions ne sont valables que pour le modèle en question. En clair, le modèle virtuel est intéressant en tant que tel, mais ses résultats ont une validité limitée par les hypothèses de départ.

Pour simplifier : le modèle de Lorenz décrit le chaos généré par les équations à 3 inconnues mais il ne peut prétendre à décrire le chaos généré par les équations de Navier Stokes, car il est une caricature de Navier Stokes.

Pour simplifier et généraliser : les modèles de l’atmosphère utilisés actuellement, sont des caricatures des équations de Navier Stokes, ils utilisent des milliers de paramètres arbitraires, et donc leurs résultats permettent de décrire le comportement numérique de leur modèle. C’est une espèce de monde virtuel numérique. Mais ils ne permettent pas de décrire les équations de Navier Stokes et ne correspondent pas, a priori, au monde « réel » issu de nos sens.

Il s’agit ici de la limite épistémologique de l’utilisation des modèles numériques en sciences appliquées : les modèles numériques produisent de la connaissance qui est déterminée par les hypothèses faites pour construire le modèle.

Bien sûr je dis ici des évidences, mais ceci est très souvent oublié par les praticiens en question, qui jouent avec leur monde virtuel comme s’il s’agissait d’une espèce de monde réel numérique, et déduisent des prédictions et des avertissements comme les mages des temps anciens.

Soit le modèle est une traduction informatique de la théorie. Ici en reprenant l’exemple de la mécanique des fluides, il s’agit d’une traduction numérique de ces équations. On prend chaque élément de fluide, et on lui ajoute des lois de comportement issus des équations de Navier Stokes. Le travail numérique est direct, il y a bien moins d’hypothèses et les paramètres de base ne sont pas arbitraires, mais sont des paramètres physiques (comme la température, la viscosité…).

Ce type de modèle est très différent du modèle précédent. Ici les équations formant la théorie étudiée, sont transcrites directement sous forme numérique, en minimisant les simplifications et les hypothèses. Dans ce genre de situation, sous réserve de validité du travail numérique effectué, le résultat de la simulation numérique sera une version numérique de l’expérience qu’on pourrait réaliser en plaçant un capteur dans le fluide en question.

Les résultats issus de ce type de modélisation numérique ont alors le statut de l’expérience dans la méthodologie des sciences : on peut les utiliser pour tester des théories, pour générer des faits. Ces simulations ont le même statut que les mesures expérimentales.

Elles sont même supérieures aux mesures expérimentales, dans le sens où numériquement tout est modélisé. On appelle ceci des expériences numériques. Toutes les quantités intéressantes peuvent être extraites numériquement. Par l’expérience, on a accès, avec certains capteurs, à des informations limitées. Les expériences numériques apportent bien plus d’informations. Elles ont bien sûr leurs propres limites, que j’exposerai ailleurs (liées au nombre de Reynolds), mais dans le cadre de ces limites, elles ont le même statut que les mesures expérimentales.

C’est ici quelque chose de nouveau, qui n’a pas été inclus dans les descriptions théoriques de la philosophie des sciences issues des travaux des glorieux chercheurs listés ci-dessus.

Vers une nouvelle philosophie des sciences numériques

Nous devons donc aller vers une nouvelle philosophie des sciences numériques, permettant de mieux comprendre le statut des travaux réalisés à l’aide des très puissants outils numériques disponibles actuellement.

Le mythe de la boîte noire.

Il existe une certaine tendance à la boîte noire, visant à produire, par des modèles très complexes, nécessitant des semaines de calcul, des codes de centaines de milliers de lignes, des résultats virtuels. Ces codes en général ne sont pas disponibles en accès libre, et même lorsqu’ils le sont, ils sont très difficilement lisibles (un programmateur a beaucoup de mal à déchiffre un programme complexe écrit par un autre programmateur). Ils produisent un monde virtuel dont les résultats dépendent de milliers de paramètres assez arbitrairement choisis. Un changement même minime de certains de ces paramètres va changer fortement le résultat de la simulation. On peut appeler ces modèles « boîte noire » : on sait ce qui entre, sait ce qui sort, mais on ne comprend pas ce qu’il se passe à l’intérieur. Ce type de modèle est très nocif pour le progrès scientifique. Pour moi la science ne peut pas progresser si on utilise des modèles possédant des milliers de variables travaillant dans une boîte noire. Le progrès scientifique via des boîte noires est un mythe. C’est le contraire de la connaissance théorique, le contraire de la recherche de l’universalité.

C’est le début de la dictature de type « 1984 » : le pouvoir détient le modèle ultime, et chacun doit accepter ses résultats car il ne détient pas le pouvoir de les contrôler et de les vérifier. Ce type de modèle n’est pas en accès libre. Seule le code compilé est souvent mis à disposition. Personne ne peut en vérifier le moteur. Il faut prendre la boîte noire dans sa globalité ou la refuser. On peut l’alimenter, en lui donnant en entrée des données, puis on voit les données reçues en sortie. Mais l’intérieur de la bête est inconnu.

Bref, on le comprendra, je ne suis pas en faveur de ce type de modèle. Je considère que ceci est à rebours de la méthode scientifique.

Le numérique en tant que parallèle à l’expérimental

Les modèles numériques open source, provenant d’hypothèses bien définies, et correspondant à la traduction numérique d’une théorie, sont par contre extrêmement utiles pour la sciences actuelle. Dans le domaine de la mécanique des fluides cela s’appelle la simulation numérique directe (Direct Numerical Simulation of Navier Stokes equations, DNS). Les travaux issus de ce type de modèle numérique sont considérés, dans le domaine de la mécanique des fluides et de la turbulence, comme de statut équivalent aux mesures (avec des limites liées aux forçages utilisés). Méthodologiquement, c’est quelque chose de nouveau.

Par contre, comme j’ai tenté de l’expliquer ci-dessus, il ne faut pas confondre ce type de modèle avec les boîtes noires possédant des milliers de paramètres.

Tous les modèles numériques n’ont pas le même statut dans la nouvelle philosophie des sciences numériques que je préconise.

[1] Je ne suis pas un scientiste pur jus : j’aime les arts, la musique, et la littérature. Cette dernière est une interprétation subjective de notre monde et je considère que son apport est majeure pour appréhender notre monde complexe. Elle est hors de la méthode scientifique évidemment…

[2] L’astrologie est une discipline quasi frauduleuse qui exploite certaines anciennes croyances irrationnelles. Voir des gens utiliser des smartphones pour consulter leur thème astral du jour est quelque chose d’assez contradictoire. Voir que des magazines à prétention sérieuse ont encore une rubrique astrologique est assez pitoyable.

Rédigé par Francois G Schmitt

Repost0
Pour être informé des derniers articles, inscrivez vous :
Commenter cet article