Franck Varenne, Théorie, réalité, modèle, Matériologiques 2012, lu par Arnaud Rosset

1389200929.jpg
 

Franck Varenne, Théorie, réalité, modèle. Épistémologie des théories et des modèles face au réalisme dans les sciences, Éditions matériologiques, 2012 (259 pages). Lu par Arnaud Rosset.

  Cet ouvrage vise à rendre compte des circonstances dans lesquelles l'évolution de la physique a amené le retour d'un questionnement sur le réalisme scientifique et à mettre en valeur la façon dont la valorisation récente des modèles, saisis comme des représentations intermédiaires entre la théorie et les données de l'expérience, a permis de réorienter ce questionnement.

L'introduction s'articule autour d'une série de clarifications conceptuelles. Rappelant que le réalisme scientifique (contrairement au réalisme ontologique, sémantique ou encore éthique) s'intéresse spécifiquement au statut cognitif des productions scientifiques, l'auteur insiste également sur la nécessité d'être attentif à ses multiples déclinaisons internes (allant du réalisme dans les sciences formelles – reconnaissance de l'existence indépendante des objets mathématiques ou logiques – aux versions proposées par les sciences empiriques – réalisme des théories,  réalisme des entités, réalisme structurel ou encore réalisme des espèces).

Sur ces prémisses, la première partie commence par expliquer que l'interrogation contemporaine relative à l'articulation entre théorie et réalité trouve son origine dans la crise de la physique au XIXe siècle, dans les doutes qui se sont élevés à l'encontre des modèles de la mécanique classique à l'occasion de l'émergence de la thermodynamique puis de l'électromagnétisme. Car si la mécanique classique était auparavant parvenue à une harmonie entre prédiction et explication, elle a dès cette période fait l'objet de critiques importantes. Ernst Mach, par exemple, a cherché à éradiquer de la mécanique tout vestige de réalisme métaphysique, estimant que les lois constituaient des approximations efficaces plutôt que des représentations objectives ; un soupçon corroboré, entre autres, par les équations de James Clerk Maxwell sur l'électromagnétisme, qui expriment des interactions complexes très éloignées de notre représentation intuitive.

Ce changement de perspective a donc introduit le doute sur le statut cognitif des théories. Pour prendre la mesure de cette ère du soupçon, Frank Varenne repart des travaux d'Ernest Nagel, afin de revenir sur les diverses significations du concept de « réalité physique », d'extraire leur noyau commun et de comprendre comment les théories rivales du réalisme ont entrepris de récuser ce noyau. C'est, qu'en effet, la notion de réalité physique ne va pas de soi, pouvant être définie à l'aune des sensations humaines (comme « ce qui est publiquement perceptible », conception particulièrement anthropocentriste), ou à l'inverse de façon formelle, lorsqu'on considère comme réels les « référents de termes non logiques » au centre d'une théorie corroborée (les éléments qui ne sont ni des constantes logiques ni des quantificateurs et qui sont utilisés dans la formulation d'une théorie). Enfin, on peut aussi l'appréhender à partir de la notion de causalité (serait réel tout ce qui cause ou est causé de façon déterminée et invariable) ou encore de celle d'invariant (serait réel ce qui persiste à travers les  changements et transformations). Selon Franck Varenne, le noyau argumentatif de ces définitions du réalisme n'est autre que la focalisation sur le recoupement d'informations, la variable étant l'objet sur lequel porte ce recoupement (nature matérielle, sensorielle, formelle, symbolique).

Et c'est justement ce recoupement que récusent les deux grandes théories qui se sont opposées au réalisme, à savoir : le descriptivisme d'une part, qui refuse le statut d'explication aux théories, estimant que la notion de réalité tient lieu d'hypostase métaphysique et affirmant, dans sa version la plus radicale (phénoménalisme), que la description permise par les lois scientifiques n'est qu'une représentation fictive commode pour penser le flux des éléments. L'instrumentalisme d'autre part, qui considère que si une théorie est plus qu'une description commode du réel, elle est moins qu'un énoncé établissant des lois sur des données observables. Simple « instrument de prédiction » permettant des calculs, elle n'est ni vraie ni fausse, mais efficace ou inefficace, ce qui explique pourquoi deux théories contradictoires peuvent parvenir à des prédictions réussies.

Face à ces conceptions antiréalistes (renforcées par les découvertes du XXe siècle portant sur des contenus éloignés de notre représentation intuitive du réel), le réalisme se serait selon F. Varenne cantonné dans une position défensive, se bornant à rappeler que l'impossibilité de mesurer, de percevoir ou de se figurer une réalité ne constitue jamais une preuve suffisante de sa non-existence. Or, cette position de repli rend difficile le maintien d'un critère ferme pour définir la science, à moins d'en rester à un critère formel (en caractérisant la science comme Carl Gustav Hempel par exemple, par la forme des énoncés qu'elle propose plutôt que par la nature du rapport entre ces énoncés et le réel). En découle alors une tension entre, d'un côté, la nécessité d'une adaptation du réalisme à la pluralité des nouvelles représentations et, de l'autre, la difficulté de maintenir une position antiréaliste qui ne reconduise pas subrepticement l'espoir d'une forme de vérité des théories. Cette tension se traduit de fait par des approches complexes et ambivalentes que l'auteur choisit d'illustrer en convoquant trois auteurs notables.

225x225bb.jpg
Une réédition 2013

Pierre Duhem tout d'abord, qui entend réactiver pour la théorie physique du XXe siècle le mot d'ordre d'une partie de l'astronomie antique, à savoir produire des hypothèses sur les corps célestes non en vue de déterminer l'essence des choses, mais dans le seul but de « sauver les phénomènes ». Prolongeant cette tradition et l'étendant à l'ensemble de la physique, la position épistémologique de Duhem refuse ainsi à la théorie le pouvoir d'expliquer la nature même du réel, la limitant à « représenter de façon satisfaisante un ensemble de lois expérimentales ». Cette limitation trouve entre autres son origine dans une certaine conception du rapport entre théorie et expérience. Pour cet auteur, les lois physiques ne seraient rien d'autre qu'un « résumé » d'une infinité d'expériences, mais ces expériences elles-mêmes, pour être ramenées à une condensation formelle mathématisée, doivent déjà être traduites sous une forme symbolique. Or, cette « traduction » reste soumise à une forme d'arbitraire : d'un côté, l'interprétation de l'expérience est orientée par la confiance en un certain socle théorique, à commencer par celui sous-jacent aux protocoles expérimentaux privilégiés ; de l'autre, l'indétermination propre à la traduction du langage de l'expérience vers celui formalisé de la théorie trouve sa réciproque lorsqu'on passe cette fois du langage théorique vers celui de l'expérience. De cette double indétermination, qui mine les prétentions du réalisme, découlent à la fois un holisme épistémologique (thèse affirmant qu'on ne peut tester la validité des hypothèses d'une théorie une par une, mais seulement prise comme un ensemble unifié) et un refus de toute expérience cruciale. Pourtant, la particularité de Duhem est que ce quasi-descriptivisme reste contrebalancé par une « foi en la possible unification des lois empiriques ». Ainsi, à mesure que la fonction représentative des théories amène à simplifier en les condensant un grand nombre de lois et à mesure que cette somme trouve une justification dans des prédictions réussies, émerge le soupçon que la théorie reflète une « organisation réelle » quand bien même elle ne peut la prouver. L'antiréalisme initial de Duhem serait donc atténué par une conviction relevant du croire plutôt que du savoir, conviction qui forme un horizon d'attente vers la « forme idéale » d'une théorie physique pleinement unifiée.

La position d'Henri Poincaré, seconde à être évoquée, se révèle également subtile. Partant d'une forme de conventionnalisme modéré, elle aboutit à un réalisme structurel. Conventionnalisme modéré d'abord, puisque l'énoncé scientifique est toujours la traduction dans un langage commode d'une énonciation brute qui prend sa source dans le témoignage des sens ; le savant créé donc le langage dans lequel le fait brut est énoncé, mais pas le fait lui-même (dont Poincaré reconnaît, contrairement à Duhem, l'existence). Réalisme structurel ensuite, dans la mesure où les rapports entre les choses mis au jour par les relations établies au sien de la science dévoilent une « harmonie universelle ». Ce qui est réel ici, ce ne sont donc pas les données accessibles par les sens, mais les rapports entre ces données, rapports traduits et communiqués par la pensée sous la forme scientifique d'un système de relations stables. 

C'est cette configuration originale qui amène naturellement F. Varenne vers une critique de Willard Van Orman Quine. Car ce dernier verserait dans une position antiréaliste faute précisément d'avoir envisagé la possibilité d'un réalisme structurel. Ainsi, estimant qu'un réalisme, pour être cohérent, se doit d'être un réalisme des entités alors même qu'il considère par ailleurs ces entités comme ontologiquement inaccessibles (en raison de la médiation nécessairement auto-référentielle, et donc relative, du langage), Quine se condamnerait dès le départ à l'antiréalisme (au niveau proprement épistémologique, cela se traduit plus spécifiquement chez cet auteur par l'impossibilité, pour la science, de définir les « espèces naturelles »). Or, pour F. Varenne, ce repli sceptique s'avère être le symptôme d'une pensée « hantée » par le tournant modéliste, mais incapable de l'intégrer (faute de n'en rester qu'à un panel limité de modèles), plutôt qu'une position aboutie.


 Ce premier moment met donc en valeur la façon dont les tensions rencontrées par les approches citées à l'occasion de leur questionnement sur le rapport entre théorie et réalité invitent à se tourner vers le concept de modèle, sorte d'intermédiaire entre les théories et les données observables (« plus souple que la théorie et plus proche des données  observables ») dont la science contemporaine fait un usage toujours plus important et diversifié (le XXe siècle ayant été une période d'essor des modèles formels dont il faut en conséquence penser le statut cognitif).


 Pour initier cet autre volet de l'enquête (et seconde partie de l'ouvrage), Franck Varenne repart des   développements précurseurs de Ludwig Boltzmann, qui valorisent le concept de modèle afin de pointer l'incapacité du descriptivisme radical à penser les productions scientifiques. En effet, réduire les théories à des fictions commodes ne permettrait pas d'expliquer la façon dont la connaissance scientifique s'élabore. Pour rendre compte de cette élaboration, il faut justement reconnaître la place centrale des modèles, qui s'expliquerait selon Boltzmann par la relation étroite unissant le fonctionnement de la pensée à celui du modèle. Toute pensée est ainsi perçue comme une faculté de recevoir et construire des images et, en ce sens, le modèle doit être conçu comme « la continuation de la pensée par d'autres moyens sensibles ». Plus que cela, loin d'être un moyen archaïque situé en deçà de l'abstraction mathématique (comme le soupçonne toute une tradition de pensée), le modèle est pour ce penseur l'instrument qui permet de relayer les symboles mathématiques lorsque ceux-ci ne suffisent plus pour penser des faits physiques de plus en plus complexes ; d'où leur caractère incontournable pour permettre une représentation des  théorisations abstraites.

En opposition à cette valorisation des modèles, Franck Varenne rappelle qu'un auteur comme Duhem n'a pour sa part pas su saisir l'intérêt de ce type de production. Resté prisonnier d'un clivage entre raison et imagination qui l'a amené à faire du modèle une stricte fiction dont l'essor serait plus dû à des attentes propres à l'industrie qu'à une réelle valeur heuristique, Duhem verse dans une lecture biaisée du rapport entre modèle et théorie qui ramène le premier à une illustration passive et dégradée de la seconde (nous éloignant d'un degré du réel).
Pour  sortir d'une telle lecture, il fallait donc repenser ce lien entre théorie et modèle en ne le confondant pas avec le rapport entre théorie et réalité. C'est justement ce qu'est parvenu à faire Bas van Fraassen à partir d'une approche sémantique de la notion de modèle qui lui permet d'opérer deux constats : d'une part, au sein des métamathématiques, le modèle d'une théorie en vient à désigner  « toute structure qui satisfait les axiomes de cette théorie » et il constitue alors l'outil permettant de prouver la consistance de cette dernière. D'autre part, au niveau des sciences empiriques, les types de modèle spécifiques, bien que partiellement indéfinis (car contenant, contrairement aux modèles métamathématiques des paramètres non identifiables), n'en possèdent pas moins une valeur heuristique importante en ce qu'ils permettraient de lutter contre l'éclatement en favorisant le recoupement de parties de théories valables localement, recoupement participant ainsi d'une unification par une série progressive de corrections.

Mais, pour intéressante qu'elle soit, cette conception sémantique occulte selon F. Varenne un peu vite les différences de nature entre les modèles logiques et métamathématiques et ceux propres aux sciences empiriques. Il n'est donc pas étonnant que cette réduction ait été en partie condamnée, ouvrant la voie vers une approche pragmatique des modèles, approche dont les nombreux enrichissements vont, entre autres, aboutir aux thèses de Ian Hacking qui occupent une place essentielle à la fin de l'ouvrage. L'intérêt de ces thèses serait de dépasser le clivage réalisme/antiréalisme en inversant la hiérarchie traditionnelle entre réalité et représentation et en récusant la perspective d'une vérité correspondance. Selon Hacking, la réalité elle-même est anthropologiquement construite en ce qu'elle constitue un sous-produit du pouvoir représentatif de l'être humain. Ce serait ainsi la capacité première de générer des représentations qui caractérise l'homme et cette primauté rend obsolète le questionnement de la conformité de la représentation à la réalité (questionnement commun aux réalistes et aux antiréalistes) dans la mesure où cette dernière, loin de lui préexister, n'est à l'inverse qu'un effet de son activité. Comment, dans ce cas, demander à la représentation une fidélité au réel qu'elle ne peut par définition pas avoir puisqu'elle le précède et le construit. Or, cette conception originale n'est évidemment pas sans conséquence sur la conception des modèles. Une fois évacuée la perspective d'une adéquation traditionnelle entre représentation et réalité, les théories prises isolément ne peuvent plus être dites vraies ou fausses et ce sont les modèles qui jouent le rôle d'intermédiaire nécessaire entre les théories et les lois expérimentales. Montrant sur ce point la convergence des thèses de Ian Hacking et Nancy Cartwright, Franck Varenne termine son ouvrage sur la présentation de cette approche originale au sein de laquelle les théories, loin d'englober progressivement le réel, sont considérées comme de simples « guides de formulation » pour les modèles qui, de leur côté, nous permettent d'être en interaction permanente avec une réalité dès l'origine construite.    

Quels enseignements peut-on tirer du cheminement réflexif accompli par F. Varenne ? De fait, la grande précision conceptuelle de l'étude montre habilement que le débat épistémologique sur les rapports entre théorie et réalité, loin de se limiter à un clivage figé entre réalisme et antiréalisme, se décline en une série de positionnements subtils dont l'intérêt grandissant pour les modèles est l'aboutissement spontané. Et si l'auteur se refuse à trancher définitivement ce débat c'est que, comme il le résume dans sa conclusion, « une réponse unilatérale (une de plus) reposerait sur une conception partielle et donc erronée de ce qu'est et de ce que peut être aujourd'hui une représentation scientifique comme une théorie ou, plus encore, un modèle » (p. 233). De plus, l'une des qualités de cette enquête (mais aussi, reconnaissons-le pour les non-spécialistes de ce domaine, l'une des difficultés) est de nous permettre de comprendre cette diversité de positionnement en revenant en détail sur la genèse de chaque approche, tout en nous donnant par ailleurs l'occasion de saisir les similitudes formelles ou les points aveugles qu'elles partagent.

Finalement, la principale nuance que l'on pourrait apporter à ce bilan très positif est formulée par l'auteur lui-même. À savoir, que l'analyse n'envisage pas l'impact récent des nouvelles techniques de simulation sur le débat abordé (notamment avec le tournant computationnel des années 1990). Mais, au regard du plaisir procuré par la lecture du livre, gageons que cette limite du champ d'investigation constitue surtout une invitation à lire les autres travaux de l'auteur.

 

   
                                                                         Arnaud Rosset (11/02/2016).