Léna Soler Introduction à l’épistémologie, 3ème édition, Ellipses, 2019 Lu par Jonathan Racine

Léna Soler, Introduction à l’épistémologie, 3ème édition, Ellipses, 2019 Lu par Jonathan Racine

L. Soler est une spécialiste reconnue de philosophie des sciences. Cette troisième édition d’un manuel qui se veut réellement une introduction comporte des changements significatifs par rapport à la première édition, notamment l’ajout d’un chapitre qui mérite une attention particulière.

 

Chapitres 1-3 : distinctions élémentaires

 

 Les trois premiers chapitres, très didactiques, sont consacrés à poser des définitions et distinctions élémentaires. On s’intéresse ainsi au sens général du terme ‘épistémologie’. Lorsqu’il s’agit de préciser son objet, on retient le sens francophone pour lequel l’épistémologie concerne la science, plutôt que le sens anglo-saxon, qui fait de l’épistémologie une réflexion sur la connaissance. Le problème est alors de déterminer s’il faut parler de la science ou des sciences. Quelles relations entretiennent l’épistémologie générale et les épistémologies régionales ? L’auteur nous propose aussi un premier travail de classification des sciences

 Dans le chapitre 2, elle s’interroge sur ce qui distingue l’épistémologie d’autres types de discours sur la science, tels que l’histoire ou la sociologie des sciences.

   Le troisième chapitre, « outils pour la caractérisation des sciences empiriques », poursuit ce travail d’introduction de concepts fondamentaux : par exemple ceux de vérité, de théorie, de modèle. On y aborde aussi la question de l’instrument (« théorie matérialisée », selon la formule de Bachelard), celle de la mathématisation et enfin le concept d’explication.

 Concernant la mathématisation, l’exemple de Planck et des débuts de la physique quantique permet d’illustrer l’idée selon laquelle les mathématiques ne sont pas qu’un outil de précision : de Boltzmann à Planck puis Einstein, « la forme mathématique fonctionne comme un vecteur d’innovation » dans la mesure où « elle précède le concept physique d’énergie quantifiée ; elle appelle une interprétation physique, et jusqu’à un certain point l’induit » (p. 74).

Quant au concept d’explication, celui-ci est analysé en le confrontant d’une part à la description, d’autre part à l’interprétation et à la compréhension. Ce dernier point permet de rappeler la distinction opérée par Dilthey ou encore Weber. L’importance de cette distinction, qui permet de fonder l’opposition entre sciences de l’homme et sciences de la nature, ne doit pas éclipser la difficulté à distinguer explication et description : la différence semble relative dans la mesure où ce qui peut apparaître comme pur compte-rendu à une époque ou à un observateur pourra s’apparenter à une explication à un autre. Il faudrait alors considérer qu’il y a une multiplicité de niveaux de description, tel niveau étant dit explicatif pour tel autre, plus superficiel.

On peut poursuivre cette analyse de l’explication en distinguant un sens fort et un sens faible, selon le type de cause que l’on invoque ou recherche. Ces distinctions apparaissent importantes pour comprendre ce que veulent dire des auteurs comme Comte, qui considèrent que la science doit se contenter de rechercher des lois et non des causes : si par explication on entend la recherche de causes ultimes, alors la tâche de la science est seulement descriptive. Mais c’est là un sens fort d’explication : l’énoncé de lois peut être considéré comme une explication, en un autre sens.

Chapitre 4 : valeur de la science empirique : mise à l’épreuve et démarcation (Le Cercle de Vienne et ses critiques)

 

Une fois ces définitions et outils conceptuels mis en place, c’est avec le quatrième chapitre, « valeur de la science empirique : mise à l’épreuve et démarcation », que l’on entre plus avant dans la discussion de problèmes et de thèses épistémologiques. Ce qui fait la valeur de la science, semble-t-il, c’est son rapport aux faits – c’est aussi ce qui semble la distinguer d’autres types de discours, dont le rapport aux faits est plus fragile. Seulement, qu’est-ce qu’un fait ? Il faut distinguer entre le fait et un énoncé à son propos – et ces énoncés sont eux-mêmes, si l’on suit le Cercle de Vienne, de deux ordres : les énoncés observationnels et les énoncés théoriques.

            L’examen de la position de Carnap permet de préciser ces points : celui-ci cherche à « fonder la science sur une base empirique ferme et invariante ». Il s’agit d’une thèse vérificationniste, qui est censée fournir un critère de démarcation entre science et non-science : est scientifique ce qui est vérifiable, et est vérifiable ce qui peut être mis en rapport avec des perceptions. La base ferme recherchée serait fournie par des énoncés d’observation absolument irrécusables. Un tel énoncé « est supposé être obtenu chaque fois que nous enregistrons immédiatement par écrit nos expériences vécues, les perceptions, aussi bien que tous les sentiments et toutes les pensées’ » (p. 98).

 C’est bien sûr l’existence d’une telle base empirique qui pose question : celle-ci ne peut jamais être complète ; dès que l’on énonce quelque chose, on opère une sélection. Et cette sélection implique un jugement de pertinence, dans lequel peuvent intervenir le but poursuivi (que cherche-t-on ?) et les croyances des locuteurs (présupposés divers, théories scientifiques admises).

 Ceci fragilise la thèse carnapienne, mais une critique beaucoup plus radicale consiste à dire qu’énoncer, c’est véritablement constituer. Le langage, en tant que système de concepts, impose un découpage du monde ; et donc, recourir à un certain langage, c’est implicitement adopter une théorie : « tout énoncé a le caractère d’une théorie, d’une hypothèse » (Popper). Notre « schème conceptuel » (Quine) détermine la réponse à la question ontologique ‘qu’est-ce qui existe ?’ Il n’y aurait donc pas de langage d’observation neutre, le langage n’est pas un reflet.

 Admettons néanmoins que l’on s’en tienne à la situation où tous les locuteurs partagent le même schème conceptuel ; la question de la vérification des énoncés d’observation se pose encore. Comment garantir la vérité des énoncés d’observation ? Par ma conviction subjective que je vois bel et bien tel objet ? Par l’accord intersubjectif ? Ceci n’est pas une véritable justification. La signification même des termes d’observation ou ce qui est identifié comme ‘fait’ est variable.

On conclut de ces remarques que toute observation est chargée de théorie et que la base empirique à laquelle se réfère l’empirisme logique est problématique. L’auteur nous propose de distinguer quatre composantes dans l’idée que les faits sont chargés de théorie. En effet, les théories sélectionnent les faits pertinent, conduisent à les énoncer d’une certaine manière, fixent la signification des faits-énoncés et conditionnent des décisions relatives à la valeur de vérité des énoncés d’observation (p. 112).

 Ce que l’on considère comme ‘base empirique’ n’est alors rien de plus qu’un ensemble d’énoncés faisant consensus à une époque donnée, pour des raisons indissociablement théoriques, psychologiques et pragmatiques. Mais dire cela n’est pas une pure et simple remise en question de l’idée de base empirique dans la mesure où, d’un point de vue pratique, il reste possible, de manière très circonscrite, d’isoler des énoncés qui fonctionnent comme des faits solidement établis.

 La suite du chapitre porte sur les difficultés que l’on trouve sur l’autre versant de l’édifice, à savoir la vérification des énoncés théoriques. Parmi ces énoncés, considérons d’abord les lois scientifiques. L’énoncé d’une loi doit faire face au problème de l’induction : comment peut-on affirmer que la loi sera vérifiée pour tous les cas futurs ? La difficulté s’applique aux prédicats dispositionnels (un corps soluble, ou magnétique) : on retrouve la même structure prédictive ‘si… alors’ caractéristique des lois universelles. Ces difficultés conduisent à envisager la substitution de la confirmation à la vérification, une démarche qui consisterait à estimer la plausibilité des énoncés théoriques, plutôt qu’à chercher à les prouver. Cela renvoie au projet carnapien d’une logique inductive et aux approches dites ‘néo-bayesiennes’, que l’auteur se contente de mentionner (et qu’il semble effectivement difficile de développer dans un manuel introductif).

 

 Ces critiques de l’empirisme logique nous conduisent à examiner les principales thèses adverses : le falsificationnisme de Popper et le holisme de Duhem-Quine.

Popper partage avec le cercle de Vienne la quête d’un critère de démarcation entre science et non-science. Mais il renonce à chercher ce critère du côté de la confirmation empirique : c’est « la falsifiabilité, et non la vérifiabilité d’un système qu’il faut prendre comme critère de démarcation » (La logique de la découverte scientifique, cité p. 119). Autrement dit, une théorie est qualifiée de scientifique si elle peut être réfutée par l’expérience. Dans cette perspective, le progrès scientifique prend la forme d’une activité destructrice : il s’agit d’éliminer toujours plus d’énoncés faux.

 Mais le falsificationnisme est-il une description de la pratique effective de la science ou une norme qui devrait régir l’activité scientifique ? Pour Popper, c’est bel et bien une théorie descriptive… au risque de se voir opposer des contre-exemples. On peut même se demander si c’est un idéal souhaitable dans la mesure où les théories nouvelles s’imposent rarement d’emblée et doivent d’abord faire face à des réfutations.

D’où les amendements que l’on peut trouver notamment chez Lakatos : il ne faudrait pas négliger toutes les corroborations, qui jouent bel et bien un rôle dans l’histoire des sciences ; et il ne faut pas non plus mettre sur le même plan toutes les falsifications. 

Le dernier point de ce chapitre analyse une position radicalement opposée au positivisme : le holisme, qui considère qu’une théorie ou une hypothèse ne fonctionnent jamais de manière isolée, ce qui remet radicalement en question la conception de la vérification. Le holisme peut être résumé par trois thèses fondamentales :

- la sous-détermination de la théorie par l’expérience : si une expérience contraire se présente, « on a toute liberté pour choisir les énoncés qu’on veut réévaluer » (Quine, « Les deux dogmes de l’empirisme », cité p. 131)

- la possibilité de théories empiriquement équivalentes : des théories différentes sont susceptibles de rendre compte d’un même ensemble d’énoncés d’observation.

- aucun énoncé n’est à l’abri de la réfutation / tout énoncé peut toujours être sauvé de la réfutation. Ou encore, comme le dit Quine : « on peut toujours préserver la vérité de n’importe quel énoncé, quelle que soient les circonstances. Il suffit d’effectuer des réajustement énergiques dans d’autres régions du système. […] Réciproquement, aucun énoncé n’est tout à fait à l’abri de la révision ».

            Le lien avec le conventionnalisme est manifeste : puisque l’expérience ne contraint pas la théorie de manière absolue, les décisions prises quant au choix des hypothèses retenues auraient pu être autres, et il y a là une part de convention. Ce sont également ces thèses holistes qui fondent le refus de la notion d’expérience cruciale.

            Le holisme constitue une critique de la conception positiviste, mais il porte également atteinte au falsificationnisme : « si n’importe quelle hypothèse peut être sauvée de la réfutation, il suffit pour ce faire d’imputer la fausseté non pas à l’hypothèse à tester, mais à des hypothèses auxiliaires » (p. 136). Pour défendre sa position Popper prend soin de critiquer les hypothèses ad hoc – par exemple, pour sauver la théorie de l’éther immobile mise à mal par l’expérience de Michelson et Morley, Lorentz ajoute une hypothèse nouvelle : « les corps mobiles subissent une contraction de longueur dans la direction du mouvement, qui a pour effet de rendre indétectable leur mouvement par rapport à l’éther » (alors qu’on attendrait à ce que soit détectable un mouvement relatif de la terre par rapport à l’éther immobile). Une telle hypothèse est taillée sur mesure pour sauver la théorie, ce qui n’est pas le cas lorsque l’on en vient à postuler l’existence d’une planète inconnue dans le voisinage d’Uranus pour sauver la théorie newtonienne : dans ce cas l’hypothèse a d’autres conséquences testables que simplement rendre compte d’une anomalie particulière dans les prédictions faites sur la base de la théorie newtonienne.

Au final, Popper considère que sa position est parfaitement compatible avec un holisme modéré et raisonnable.

 

 

Chapitre 5 : le réalisme en question

 

Le chapitre 5 traite du rapport entre une théorie scientifique et son objet. La question rejoint en grande partie celle de la partie précédente, mais ici c’est le concept de réalisme dans ses différentes versions qui est mis en avant. Le réaliste défend la thèse selon laquelle les théories scientifiques sont au moins approximativement vraies, et cela au sens où elles correspondent à la réalité, elles en constituent une sorte de reflet. Le réalisme naïf, qui défendrait l’idée d’une vérité absolue des théories scientifiques, est écarté rapidement (et pour cause : un tel réalisme n’est semble-t-il défendu par personne) au profit d’un réalisme dit convergent, qui considèrent que les théories scientifiques gagnent en précision au cours d’un progrès scientifique, et qu’elles peuvent contenir à un moment donné des éléments qui ne sont pas vrais.

L’argument principal retenu au crédit de la thèse réaliste est celui de l’efficacité prédictive. Mais l’antiréaliste peut rétorquer que, tout comme un même objectif peut être atteint de plusieurs manières, de même l’efficacité prédictive pourrait être obtenues par plusieurs théories différentes (et donc équivalentes empiriquement – cf. le holisme examiné précédemment). Le succès d’une théorie n’est pas une marque indiscutable de sa vérité. L’auteur présente ainsi plusieurs cas de théories contemporaines, prédictivement efficaces et pourtant incompatibles : par exemple, Bohm a présenté une théorie quantique parfaitement déterministe et empiriquement équivalente à la mécanique quantique dite ‘standard’ (qui est, elle, indéterministe). De manière plus évidente, l’histoire des sciences permet un inventaire de théories scientifiques relativement efficaces et dont l’ontologie a ensuite été abandonnée. Cela ne signifie pas que l’antiréaliste affirmerait l’équivalence de n’importe quelle ontologie : selon l’antiréaliste, les scientifiques « disposent d’une marge de liberté dans l’élaboration des théories, mais non pas d’une liberté totale » (p. 153).

 Cela clôt-il le débat ? Quelles seraient les parades réalistes à ces arguments ? Un réaliste peut considérer que la pluralité des théories est possible tant que celles-ci sont approximatives ou immatures, mais elles convergeraient vers une vérité unique. Un des enjeux est la manière d’interpréter l’histoire des sciences : doit-on voir en celle-ci une certaine continuité ? Comment interpréter les ruptures ? Peut-on y l’interpréter comme le lieu d’un progrès vers la vérité ?

 Les termes du débat entre réalisme et anti-réalisme étant posés, l’auteur le prolonge à travers l’examen de différentes positions que l’on peut rattacher à ce débat : le phénoménisme de Mach, le réductionnisme, et surtout le conventionnalisme, notamment sous la forme modérée que propose Poincaré. On parlera de conventionnalisme modéré dans la mesure où l’idée de convention ne renvoie pas à celle d’arbitraire – notamment en ce qui concerne les axiomes de la géométrie euclidienne : ceux-ci dérivent bien en sens de l’expérience, non pas au sens où ils correspondraient au réel, mais « au sens où, étant donné la structure particulière de notre expérience, ils sont les conventions les plus commodes » (p. 166). Le raisonnement est ensuite étendu aux premières propositions de la physique, tel que le principe d’inertie.

Le chapitre se termine par un exposé du débat dans le champ des sciences formelles : quel est notamment le statut des objets mathématiques ? Quel est le statut épistémologique des axiomes, qui semblent s’imposer à nous de manière intuitive ?

 

 

Chapitre 6  : La science comme processus historique

 

 Dans un premier temps, ce processus peut être considéré de manière continuiste ou discontinuiste. Concernant cette dernière position, comment s’opère le diagnostic de ‘révolution scientifique’ ? Une révolution scientifique implique-t-elle une prise de conscience du caractère révolutionnaire en question ? Et si oui, prise de conscience de qui ? Et comment s’opère la révolution elle-même ? Y a-t-il lieu d’envisager de ‘petites’ révolutions à côté des grandes, des révolutions locales ? Concernant la position continuiste, parle-t-on de continuité ontologique (les entités auxquelles se réfèrent les théories), ou de continuité structurale ?

Qu’elle soit continuiste ou discontinuiste, l’évolution historique de la science est déterminée en partie par certaines contraintes, qui conditionnent l’acceptation ou le rejet d’une théorie. A noter que cette idée de contrainte englobe aussi bien des facteurs psychologiques ou sociaux que des éléments objectifs (le type de données expérimentales dont l’on dispose à une époque par exemple). Selon le type de contrainte que l’on reconnaît comme légitime, on proposera alors une histoire externaliste ou internaliste. Entre une épistémologie naïve qui nierait le poids des facteurs sociaux sur les théories, et une sociologie des sciences qui prétendrait expliquer le contenu d’une théorie par le contexte social, il existe évidemment des positions intermédiaires. L’auteur prend l’exemple de Koyré : d’une part, celui-ci montre la nécessité de prendre en compte des facteurs religieux et philosophiques pour comprendre la nouvelle astronomie élaborée par Kepler ; d’autre part, il insiste sur le fait que « la science […] a, et a toujours eu une vie propre, une histoire immanente ».

Ces considérations nous conduisent à la question du progrès et à celle du relativisme : l’idée d’un progrès nécessaire, cumulatif, orienté vers une fin ne relève-t-elle pas d’une illusion rétrospective ? Renoncer à une telle idée ne signifie pas nécessairement renoncer à l’idée de progrès (on peut concevoir une évolution de type darwinien, qui sélectionnerait les théories les plus efficaces), mais cela pose fortement le problème du relativisme. Au sens faible celui-ci désigne la thèse selon laquelle toute connaissance est relative à certaines conditions ; au sens fort, il affirme l’impossibilité de prouver la supériorité d’une théorie par rapport à une autre, ou de la science par rapport aux autres types de croyance.

Certes, au sens faible, le relativisme semble une position impossible à récuser, notamment en prenant en compte la critique kantienne de l’idée de connaissance absolue ; mais l’auteur prend tout de même soin de préciser les formes et les implications de cette position. De la même manière, elle introduit des distinctions au sein du relativisme fort, notamment entre relativisme des fins et des moyens. Cette distinction lui semble essentielle pour éviter un rejet « épidermique » du relativisme, qui conduirait à embrasser un « scientisme non critique ».

 

Chapitre 7 : Bachelard et Kuhn, deux position originales et complexes

 

 Bachelard et Kuhn sont convoqués pour illustrer la thèse de la discontinuité en histoire des sciences : pour le premier, la science progresse par ruptures, en surmontant des obstacles épistémologiques ; pour le second, la science se développe selon le schéma cyclique suivant : science normale (paradigme 1) → crise → science extra-ordinaire → révolution scientifique → science normale (paradigme 2).

 L’auteur présente les différents composants de la notion de paradigme – un concept devenu si galvaudé qu’on ne prend souvent plus la peine de préciser qu’il ne se limite évidemment pas à des contenus théoriques : il implique des normes, un savoir-faire… Elle s’appuie sur la propre synthèse de Kuhn, dans la postface de La structure des révolutions scientifiques. Il y distingue quatre composantes d’un paradigme : les généralisations symboliques, la partie métaphysique (des modèles dont la portée ontologique peut être plus ou moins forte), les valeurs (qui définissent un idéal de scientificité), les exemples communs (les problèmes et solutions types).

Après avoir explicité la signification de la thèse si fameuse de l’incommensurabilité des paradigmes, l’auteur conclut en rappelant très utilement que Kuhn s’est fermement opposé à une interprétation relativiste de son propos. Elle cite la postface de La structure… : « les théories scientifiques de date récente sont meilleures que celles qui les ont précédées sous l’aspect de la résolution des énigmes […]. Ce n’est pas là une position de relativiste, et elle précise en quel sens je crois fermement au progrès scientifique » (La structure des révolutions scientifiques, p. 279, cité p. 246)

 Le propos est sans ambiguïté, mais cela ne nous dit pas comment concilier une telle déclaration avec la conception générale de la science défendue dans l’ouvrage et qui n’a pas été interprétée de manière relativiste sans raison ! Force est de constater que la position de Kuhn est complexe dans la mesure où il affirme que « la concurrence entre paradigmes n’est pas le genre de bataille qui puisse se gagner avec des preuves » (idem, p. 204, cité p. 247).

 L’argument est finalement assez faible (comme le reconnaît l’auteur) : « la nature [des groupes scientifiques] garantit virtuellement la croissance indéfinie de la liste des problèmes résolus par la science ». Autrement dit, comme le commente l’auteur : « il repose […] entièrement sur sa confiance en la compétence de la communauté scientifique ». Une confiance qui ne va pas de soi, tant la structure précise de la communauté scientifique est complexe et variable.

 

Chapitre 8 : la diversité des sciences

 Le court chapitre 8 aborde le problème de la diversité des sciences, ou encore des épistémologies régionales. En effet, « la physique doit-elle être le modèle de toute science digne de ce nom ? » Qu’on lui accorde une valeur exemplaire ou non, il est indispensable de prendre en compte les spécificités des objets de chaque science.

En ce qui concerne les sciences de la vie, l’auteur s’appuie sur Canguilhem pour rappeler les caractéristiques suivantes des phénomènes biologiques : les êtres vivants sont des individus, des totalités ; l’histoire du vivant est irréversible ; et observer un phénomène biologique conduit souvent à le perturber

En ce qui concerne les sciences humaines et sociales, outre qu’il n’y a pas de méthode faisant parfaitement consensus, le problème principal est certainement celui de la non séparation du sujet et de l’objet, la difficulté pour l’homme de tenir un discours objectif sur l’homme.

 

Chapitre 9 : orientations et enjeux de la philosophie des sciences ‘post-kuhnienne’ : le tournant pratique et la contingence

L’ouvrage se clôt sur un chapitre fondé sur les recherches novatrices de l’auteur[1] et il offre donc un aperçu d’un pan de la philosophie des sciences la plus actuelle. Ce chapitre beaucoup plus dense mériterait incontestablement un compte-rendu à part. Il vise principalement à rendre compte de ce que l’on qualifie de ‘tournant pratique’ dans la philosophie des sciences et des implications de ce tournant.

Le tournant pratique désigne la prise en compte récente des processus concrets qui produisent la science, alors que la philosophie des sciences avait jusque là tendance à s’intéresser exclusivement aux théories. L’auteur entend présenter quelques thèmes centraux des études conduites dans cette perspective, en les rattachant à ce qui lui semble être l’enjeu principal : la question de la contingence des résultats scientifiques.

Le premier thème abordé est celui de l’hétérogénéité des déterminants : les facteurs intervenant dans le processus de la science sont beaucoup plus nombreux et complexes que ne peut le laisser penser une opposition schématique entre facteurs internes et externes. En fait, ce sont les pratiques scientifiques elles-mêmes qui s’avèrent extrêmement variables. L’auteur illustre cette affirmation en se référant au travail de Galison Image and Logic, qui met au jour des traditions expérimentales différentes au sein de la physique des particules. Ces traditions impliquent des normes de démonstrations également différentes, et ces différences normatives peuvent ensuite être source de conflit quand il s’agit d’interpréter ce qui a statut de fait scientifique. Le lien avec la thèse de la contingence est alors manifeste : ‘et si les traditions avaient été différentes… ?’

Un autre thème important issu du tournant pratique est celui des aspects tacites, ou encore de l’opacité irréductible des pratiques scientifiques, un thème introduit par M. Polanyi et développé aujourd’hui notamment par H. Collins. Dans le cas des pratiques expérimentales, l’idée est que l’expérimentateur est dans l’incapacité d’expliciter toutes les conditions nécessaires à la maîtrise des protocoles expérimentaux et à l’établissement des résultats. Cette idée a des enjeux importants en ce qui concerne la reproduction expérimentale et la conservation des acquis scientifiques. Les enjeux sont particulièrement manifestes lorsque l’on a affaire à des pratiques scientifiques non stabilisées : face à un phénomène nouveau ou mal établi, quelles conclusions tirer d’un échec de la réplication ?

Il est illusoire de penser que la réussite ou l’échec de l’expérience suffit à trancher ! Ce qu’on appelle ‘expérience’ contient en fait plusieurs ingrédients inséparables, un « pack […] protocoles-faits-experts ». Ici, une des idées les plus fortes de Collins est celle de « régression de l’expérimentateur ». Citons un extrait important de Collins lui-même : « La ‘régression de l’expérimentateur’ survient quand une série de réplications expérimentales est invoquée pour tester une affirmation controversée. Le critère habituel pour conclure qu’une expérience a été correctement conduite – à savoir l’obtention du résultat correct attendu – fait défaut, puisque ‘ce qu’est le résultat correct’ est précisément l’objet de la controverse. Du coup, les expérimentateurs peuvent discuter indéfiniment la question de savoir lequel des deux ensembles d’expériences aboutissant à des résultats conflictuels a été correctement conduit. La réponse à cette question fournit la réponse à la question de savoir quel est le résultat correct de cette expérience. Mais le seul moyen de décider quelles expériences ont été correctement conduites, c’est de décider ce qu’est le résultat correct, et de là de voir laquelle des deux expériences produit ce résultat. D’où la régression ».

L’auteur illustre cette question à partir de l’analyse par Collins de la controverse sur les ondes gravitationnelles[2]. Dans les années 70, Weber, un physicien, détecte de nouvelles ondes, à l’aide d’un dispositif expérimental tel que personne ne parvient à reproduire ses résultats. Comme dans la plupart des cas de controverse analysés par Collins, la conclusion est que la victoire d’un des camps (les adversaires de Weber) est contingente.

Le tournant pratique permet également de donner une nouvelle dimension à la thèse dite de Duhem-Quine : alors que classiquement celle-ci s’applique à des énoncés, il s’agit maintenant de faire tenir ensemble le plus grand nombre possible d’éléments hétérogènes des pratiques scientifiques. On obtient alors une totalité où les différents éléments se soutiennent les uns les autres – une totalité que Hacking qualifie de système clos auto-justifié. Ceci nous introduit au thème de la solidité de la science, de sa stabilité, ou encore, de sa « robustesse ». Celle-ci serait compatible avec l’idée de contingence, un point absolument essentiel dans l’argumentation de l’auteur.

 Il est temps de formuler plus précisément cette idée de contingence : il est absolument évident que les être humains, en raison de contingences historiques, auraient pu ne pas développer telle ou telle science, et donc ne pas aboutir à tel résultat. Mais le contingentisme est une thèse radicale qui n’a rien à voir avec un tel truisme : il s’agit de dire qu’à partir de conditions initiales semblables, on pourrait aboutir à une physique (par exemple) alternative tout aussi performante que notre physique, mais associée à des résultats irréductiblement différents, notamment d’un point de vue ontologique. Evaluer une thèse aussi forte est délicat : tout d’abord, que penser de la clause des conditions initiales à peu près semblables à celles de l’histoire de notre physique ? Ensuite, on peut être tenté de considérer qu’à long terme, la vérité s’imposera – aussi dans quelle temporalité nous situons-nous ? Comment évaluer la performance de cette physique alternative et la comparer à celle de notre physique ? Et comment mesurer leurs différences, leur caractère inconciliable ? Enfin, comment peut-on affirmer, comme l’auteur, que le contingentisme ne sacrifie pas la robustesse des résultats scientifiques, la rationalité et le progrès de la science ?

 

            Concernant cette dernière partie de l’ouvrage, comme le note l’auteur, « le réaliste qui sommeille en chacun d’entre nous » aura certainement envie de réagir[3].

 Quand on lit par exemple (dans une note!) que Collins s’affirme ‘contingentiste’ seulement à court terme, mais agnostique à long terme, n’est-ce pas reconnaître implicitement, que la science finit bien, au bout du compte, par établir des résultats / des théories qui auraient difficilement pu être totalement différents ?

 La position de Hacking semble illustrer un flottement encore plus grand : l’auteur reconnaît que sa position a sans doute varié dans le temps, et il se déclare

finalement inévitabiliste « à propos de certaines réponses scientifiques à des questions bien posées »[4]. N’est-ce pas admettre que le contingentisme ne vaut peut-être que pour des situations où la science n’a pas encore réussi à délimiter parfaitement le problème qu’elle étudie ? Le positiviste le plus virulent ne serait-il pas d’accord ?

Quant aux propos de Hacking concernant la robustesse de la science, ou encore la co-stabilisation des différents éléments de la pratique scientifique, cela interpelle à nouveau le réaliste : si c’est la co-stabilisation qui produit la robustesse, on peut considérer que de très nombreux systèmes de croyances / pratiques sont susceptibles de former des systèmes clos, robustes en ce sens et potentiellement irréfutables. On se demande bien ce qui fait la spécificité de la science – peut-être faudrait-il reconnaître enfin que la science est une pratique qui se préoccupe particulièrement et d’une certaine façon du réel et de la vérité.

 

Remarques finales

 

Ce manuel manifeste un incontestable souci pédagogique, comme en témoignent les premiers chapitres consacrés à des définitions de base (sur lesquels le lecteur quelque peu familier du domaine passera sans doute rapidement), le découpage en sections très courtes, la table des matières extrêmement détaillée, l’index fourni. Tout cela en fait un ouvrage parfaitement accessible à l’étudiant confronté à la philosophie des sciences en début de cursus.

 De manière peut-être inévitable, des choix sont faits. L’exemple le plus frappant étant la question de la réduction, traitée de manière vraiment rapide, sans aucune référence à Hempel ou Nagel (celui-ci étant absent de l’index), sans lien avec la problématique de l’unité (vs pluralisme) des sciences. Ce thème de la réduction fait pourtant l’objet de beaucoup de recherches, par exemple dans le champ de la philosophie de la biologie[5]. Ce qui peut apparaître comme une lacune permet à l’auteur de développer des thématiques plus originales, correspondant à des choix théoriques assumés comme tels : encore une fois, on ne peut que recommander la lecture du dernier chapitre, très stimulante introduction à un problème dont l’auteur regrette qu’il ne soit pas traité de manière suffisamment autonome, celui de la contingence (vs inévitabilité) des théories.

 Ce chapitre accorde en outre une place importante à une perspective ‘sociologique’, souvent délaissée dans les  ouvrages d’introduction à la philosophie des sciences .

 Au final, une introduction qui comporte plusieurs niveaux de lecture et qui peut intéresser un public très varié.

 

L’insistance sur ce thème de la contingence laisse transparaître une préférence assez nette de l’auteur pour une position ‘anti-réaliste’ – ce qui est évidemment parfaitement défendable. Néanmoins, on peut regretter que la position réaliste soit peut-être un peu trop rapidement identifiée à une forme de naïveté ; ou encore que la position anti-réaliste soit vue comme une résistance lucide face au ‘scientisme’ ambiant. A titre personnel, je n’ai pas l’impression de vivre dans un monde dominé par le scientisme ; je partage plutôt la consternation de P. Boghossian vis-à-vis de certaines critiques relativiste de la science (cf. P. Boghossian, La peur du savoir).

 Dans sa préface, B. d’Espagnat émet quelques réserves vis-à-vis de cette prétendue « épistémologie naïve » à laquelle l’auteur fait plusieurs fois référence (cf. p. 4). Pour ma part, et c’est ma seule critique, il me semble qu’un manuel d’introduction aurait dû offrir au lecteur une présentation de la position réaliste plus consistante (on pourra comparer, pour un traitement très différent de cette position, avec le manuel de M. Esfled, Philosophie des sciences).

            

Jonathan Racine

 

 

 

 

 

 

            

 

 

 

 

 

[1]Cf.  Lena Soler, Howard Sankey, et Paul Hoyningen-Huene, éd., Rethinking scientific change and theory: stabilities, ruptures, incommensurabilities?, Boston studies in the philosophy of science (Dordrecht: Springer, 2008).

      Lena Soler et al., éd., Characterizing the robustness of science: after the practice turn in philosophy of science, Boston studies in the philosophy of science, v. 292 (Dordrecht ; New York: Springer Verlag, 2012).

      Lena Soler, Emiliano Trizio, et Andrew Pickering, éd., Science as it could have been: discussing the contingency/inevitability problem(Pittsburgh, Pa: University of Pittsburgh Press, 2015).

      Lena Soler et al., éd., Science after the practice turn in the philosophy, history, and social studies of science, Routledge studies in the philosophy of science 14 (New York: Routledge, 2014).

[2]Le lecteur francophone peut se référer par exemple au texte de Collins sur les ondes gravitationnelles dans l’anthologie de Callon et Latour La science telle qu’elle se fait. Le sujet est également abordé dans le petit livre très provocateur de Collins et Pinch, Tout ce que vous devriez savoir sur la science. Le compte-rendu critique de cet ouvrage par Morange permet de prendre quelques distances avec cette approche : « Harry Collins, Trevor Pinch, Tout ce que vous devriez savoir sur la science », Revue d’histoire des sciences, 1997, 379‑81. Concernant la controverse des ondes gravitationnelles, Morange n’hésite pas à parler de malhonnêteté de la part de Collins : «  nul ne niait qu'il existât des ondes gravitationnelles : le seul problème était de savoir si les expériences de Joseph Weber détectaient ces ondes gravitationnelles ou des artefacts ». (On notera que Lena Soler distingue soigneusement les deux questions : cf. p. 293)

[3]Néanmoins, tout comme l’auteur nous semble exagérer le poids du ‘scientisme’ dans le champ intellectuel, elle néglige peut-être inversement le poids du relativisme qui sommeille chez beaucoup d’entre nous.

[4]Concernant Hacking, on peut se référer au chapitre 3 de La construction sociale de quoi ? L’auteur conclut sur son « ambivalence » concernant la thèse constructionniste à l’égard des sciences de la nature. Ce texte illustre à mon sens les contorsions peu satisfaisantes auxquelles on est conduit lorsque l’on accorde d’abord beaucoup à la thèse constructionniste, sans vouloir assumer certaines conséquences relativistes.

[5]Cf. par exemple Rosenberg, Darwinian Reductionism ; Sachse, Philosophie de la biologie ; Kaiser, Reductive Explanation in the Biological Sciences...