Lisant un blog consacré à la philosophie de l’esprit, à l’ontologie et à la métaphysique, et tenu par un éminent professeur probablement à la retraite comme moi, François Loth, je découvre un article qui me réveille pour de bon, et même, dirais-je, m’excite. Je n’avais jamais pensé à ce rapprochement a priori incongru : entre Galilée et Robert Musil. Au commencement, il y a un propos qui frôle la provocation :
Dans le roman L’Homme sans qualités, Robert Musil, revenant sur la figure de Galilée, évoque une « faute grave » imputable à l’Église catholique — une faute qui n’est précisément pas celle à laquelle on s’attendrait. Il écrit :
« Selon des traditions dignes de foi, ce serait au cours du XVIème siècle, période d’intense animation spirituelle, que l’homme, renonçant à violer les secrets de la nature comme il l’avait tenté jusqu’alors pendant vingt siècles de spéculation religieuse et philosophique, se contenta, d’une façon que l’on ne peut qualifier que de « superficielle », d’en explorer la surface. Le grand Galilée, par exemple, qui est toujours le premier cité à ce propos, renonçant à savoir pour quelle raison intrinsèque la Nature avait horreur du vide au point qu’elle obligeait un corps en mouvement de chute à traverser et remplir espace après espace jusqu’à ce qu’il atteignit enfin le sol, se contenta d’une constatation beaucoup plus banale : il établit simplement à quelle vitesse ce corps tombe, quelle trajectoire il remplit, quel temps il emploie pour la remplir et quelle accélération il subit. L’Église catholique a commis une grave faute en forçant cet homme à se rétracter sous peine de mort au lieu de le supprimer sans plus de cérémonies… »
oui, tout un chacun pense que la faute grave de l’Église catholique est de ne pas avoir reconnu que Galilée avait raison. Et non de le forcer à se rétracter d’une opinion qui risquait de s’avérer peut-être simplement fausse, ou du moins, dont le développement allait conduire à une vision fautive de la science. C’est dur à avaler quand on a fait toute sa vie intellectuelle et scientifique dans une réference sainte et même sacrée au galiléisme. En tant que linguiste, je me suis prosterné devant la démarche « révolutionaire » d’un Chomsky, qui voulait justement inscrire la linguistique dans cette lignée. Ah ! On en aura fait des contorsions pour faire entrer nos domaines d’étude dans l’étroit corset des modèles mathématiques… Bien. Comme dit une chercheuse sur laquelle je viens de lire aussi un article (Mazviita Chirimuuta, dans Philosophie Magazinedumois de janvier), « les modèles sont tous faux, mais il en est qui sont quand même utiles ». Raccrochons-nous à cet espoir. Même si la science post-galiléenne rate un nombre important d’aspects du monde, de l’univers, voire même de notre langage, elle en dirait quand même quelque chose. Ce qu’on veut dire ici c’est que ce quelque chose n’est peut-être pas suffisant et qu’à s’y complaire, on rate beaucoup. Le principal ? Peut-être, suggéreront les mauvaises langues.


Le fait de comparer l’explication aristotélicienne de la chute des corps (la poursuite de la tendance à remplir les espaces en vertu du principe selon lequel la nature a horreur du vide) avec la description galiléenne (on pourrait aussi la faire avec la théorie de Newton) est choquant en soi. Bien sûr. Et pourtant, celamet l’accent sur des points qui sont plus que de détail. Il y a dans la première une intention, peut-être naïve certes, de saisir le tout d’un phénomène en tentant de le cerner de l’intérieur. C’est un peu comme si les choses avaient toutes une âme, une intentionnalitéet que la manière dont elles se comportent en serait le reflet. On songe ici inéluctablement aux ontologiesdéfinies par Philippe Descola. Si pour les naturalistes que nous sommes, il y a évidence à ce que le corps physique réponde aux même lois pour toutes les espèces (voire même les objets non vivants, grâce justement à l’universalité de notre science, qui voit des atomes et des quarks à la base de tout), alors que le domaine de l’esprit demeurerait morcelé, puisque n’existerait aucune continuité entre l’esprit des humains et celui des non-humains, pour les animistes et les totémistes, on le sait, les choses vont différemment : un même esprit habiterait l’univers. Il est hors de question de nier les avantages que possède parfois notre ontologie, qui se résument à des progrès technologiques et médicaux qui rendent nos vies plus aisées et surtout plus longues en moyenne (ce n’est pas rien). Néanmoins, on le conçoit bien, ces avantages sont partiels et obtenus à un certain prix. C’est le prix de la réduction (et donc, du réductionnisme). Tout chercheur utilisant ou créant des modèles sait bien comment cela fonctionne : on a cerné une propriété d’un phénomène, aisément quantifiable ou formalisable mathématiquement, et alors on prétend immédiatement que cette propriété est suffisante, que tout va s’y ramener. Cela est vrai en neurosciences (la chercheuse citée ci-dessus parle du cerveau conçu comme un ordinateur par exemple ou comme un réseau de neurones artificiels ce qui revient presque au même), cela est vrai en linguistique (on croit avoir identifié la propriété fondamentale de toutelangue qui est que des morceaux fusionnent et se déplacent), comme cela est vrai en physique ou en biologie (l’idée par exemple que la cellule fonctionne comme une « machine »). Etpourtant il reste quelque chose en dehors. Un petit quelque chose, mais quand même. Les réseaux de neurones artificiels sont une simplification outrancière du cerveau humain, les fonctionnement syntaxiques élémentaires qu’on croit avoir identifiés vont nécessiter des complications imprévues dès qu’on va vouloir étudier des langues un peu éloignées de notre champ de vision habituel, la machine cellulaire ne va pas fonctionner comme prévu à cause de l’épigénétique. Etc. etc.
Et puis vient le moment de la confrontation avec un réel obstiné, des questions lancinantes que l’on ne parvient pas à résoudre. Ainsi de la conscience phénoménale, le Problème dur (The Hard Problem), comme l’ont reconnu de nombreux spécialistes de la philosophie de l’esprit (dont David Chalmers). Lorsqu’on a construit une science sur le principe d’en exclure toute intentionalité subjective (comme en était conscient le grand physicien Schrödinger d’ailleurs, qui pensait que l’acte fondateur de cette science résidait justement dans « l’élision du sujet »), il devient impossible de réintégrer cette dernière en elle lorsque celle-ci s’est développée et a atteint le point où nous en sommes aujourd’hui, contrairement à ce que disent les optimistes à la Pinker ou la Dennett qui croient que grâce aux développements de ladite science on n’a jamais été aussi près de dévoiler les secrets de la conscience (ce que suggère également Stanislas Dehaene, voir plus loin). Alors pas étonnant que l’on en vienne à penser que les choses auraient pu être autrement si…
… si, par exemple, on avait dès le début imprimé dans la connaissance l’idée que le but était justement de rendre compte de l’intentionalité, d’aller dans le fond de l’être au lieu de rester à la surface quantifiable des choses. Il n’aurait pas fallu suivre Galilée, alors. On aurait cherché à décrire le phénomène en contexte, et non à le séparer dudit contexte, on aurait traité en même temps la cause et l’effet… autrement dit le remède et le poison. Ce qui signife qu’à chaque découverte on aurait associé ses conséquences possibles, non pas que l’on eût séparé les deux pour adjoindre ensuite les deuxièmes en tant que « partie morale » de l’affaire, mais les deux composantes auraient été dès le début indissociables. C’est une conception de la science très différente de la nôtre. Mais cela était-il seulement possible ?
Comment expliquer qu’il y ait des conceptions distinctes de la science, hormis par le recours aux ontologies de Descola qui semblent quand même un peu trop générales ? Mon point de vue ici, me semble apporter quelque chose non pas de nouveau (ce serait prétentieux) mais de non présent dans la thèse de Musil, il est inspiré des réflexions basées sur la dépendance de la science par rapport aux formations socio-historiques que l’on trouve dans la tradition « matérialiste » et dont je me suis déjà fait l’écho sur ce blog, me référant notamment à Alfred Sohn-Rethel, le philosophe allemand qui le premier a voulu établir un lien entre les pensées concernant la connaissance, de Kant et de Marx.
On ne saurait tout attendre d’une science dépendant d’une formation sociale comme le capitalisme (ou « système producteur de marchandises » comme il est désormais dit parfois, voire « patriarcat producteur de marchandises »). Sohn-Rethel a suggéré que la spéculation philosophique et les mathématiques doivent beaucoup à l’apparition de la monnaie, et plus généralement aux échanges marchands rendus possibles par la monnaie vers le VIèmesiècle avant J.C. L’échange est lié à l’abstraction : la valeur d’échange est en effet un produit de l’abstraction au travers de mécanismes comme ceux que Marx analyse au Livre I du Capital, dans ses paragraphes sur la forme marchandise. La valeur d’échange se concrétise dans le prix des marchandises, mais elle ne lui est pas équivalente : elle reste toujours à un niveau abstrait qui est justement aussi celui où se passent les échanges d’idées permis par le langage. Lequel langage doit être sans arrêt affiné pour atteindre un haut niveau de précision dans la réussite du but de l’échange, affiné jusqu’à être un langage spécialisé, voire une langue autonome comme le sont les mathématiques. Mais les mathématiques ne servent pas seulement à régler l’échange marchand. Très tôt, elles apparaissent comme le moyen d’établir un autre type « d’échange », qui n’est plus l’échange entre agents humains mais l’échange avec les données physiques et quantitatives telles qu’elles sont distribuées par « la nature » (ou du moins ce qu’on appelle ainsi, les entités qui meublent l’univers et auxquelles on a donné des noms : planètes, atomes, ondes, molécules, Soleil, énergie, galaxies etc.). La conception galiléenne de la science met l’accent, comme on l’a dit plus haut, sur les propriétés qui peuvent être quantifiées, on dira plus tard mathématisées. Autrement dit elles sont basées essentiellement sur la notion de mesure. Rien d’étonnant à ce qu’un chapitre conséquent des mathématiques s’intitule « Théorie de la mesure ». De nombreux mathématiciens s’y sont illustrés, allant de Riemann à Lebesgue et passant par Carathéodory ou Hausdorff. Cette théorie fournit d’ailleurs les bases d’une autre science très en vogue à l’ère du capitalisme : la statistique. La théorie de la mesure est basée sur la théorie des ensembles, elle suppose que l’on soit capable d’assigner à tout ensemble faisant partie d’une famille particulière (les ensembles « mesurables ») un nombre réel. Ce nombre réel est compris entre 0 et 1 dans le cas de la théorie des probabilités qui fonde directement la statistique. Or, ce nombre réel est l’analogue… d’un prix ! Voire la généralisation de la notion de prix.
Mais peut-être sommes-nous là dans le pur domaine de la coïncidence. Il faudrait davantage de données pour aller plus loin, s’aventurer sur le terrain de la dépendance des mathématiques dans leur ensemble par rapport à l’échange marchand et à la production capitaliste.
Et pour ce qu’il en est de la conscience, il sera utile de faire un détour par ce qu’en dit Stanislas Dehaene dans son intéressante leçon inaugurale au Collège de France. (à suivre, donc)






























































