Plus tard, je lus le dernier livre d’Olivia Rosenthal, cadeau d’anniversaire fictif (car non envoyable) au milieu de la période de confinement (merci à Claire B.!). J’avais été collègue avec elle lorsque j’officiais à Paris VIII, où elle anime un master de création littéraire. On dit que c’est en suivant ses cours que le dernier « livre-Inter » a pris naissance, écrit par Anne Pauly, un livre qui ne m’a pas laissé un souvenir inoubliable pourtant…
Olivia Rosenthal expérimente des formes et aborde des sujets risqués comme la maladie ou la mort (« On n’est pas là pour disparaître », « Mécanismes de survie en milieu hostile »…), tout en ne « traitant » pas ces sujets au sens où l’on pourrait dire « ceci est un livre sur la mort » ou « ceci est un livre sur la maladie (d’Alzheimer en l’occurrence) » mais en donnant plutôt l’impression de fuites, de courses fantasmagoriques au fond de la nuit, de choses mystérieuses qui peuvent advenir en dehors de toute logique. « Mécanismes… » était un ensemble de cinq récits où des personnages se poursuivaient, se cachaient, avaient peur au sein de maisons comme on ne peut en voir que dans les films de Hitchcock (d’ailleurs Olivia Rosenthal est une fan de Hitchcock, notamment du film « les Oiseaux », ce n’est pas étonnant), ces récits étant entrecoupés de digressions très didactiques expliquant l’effet de mort imminente (EMI) ou bien ce que les légistes savent de la décomposition d’un cadavre. J’apprenais ainsi que l’effet de mort imminente est abondamment documenté, que cela a un sens de dire « j’étais mort et mon esprit volait au-dessus de mon corps », que cela résulte d’un ultime sursaut du cerveau cherchant à se défendre. Quant à l’héroïne dont on suivait la trajectoire en parallèle, et qui disait attendre le retour de parents appelés d’urgence sur un lieu d’accident, on ne savait finalement jamais si elle était bien celle qu’elle prétendait être ou bien la personne qui était morte lors de cet accident… J’apprenais aussi ce qui peut se passer dans le cerveau d’une malade soudainement atteinte d’un grave AVC, ou victime d’une chute de cheval et se retrouvant avec une paralysie de tous ses membres… savoir tout cela ouvre des multitudes de portes à la narratrice car outre ce que des personnages peuvent vivre dans ce qu’on désigne comme « la réalité », il y a tout ce qu’ils vivent aussi ailleurs, dans la mort, dans l’inconscience ou le coma profond. Les gens dans le coma rêvent, ils rêvent qu’ils sont vivants et qu’ils poursuivent des sources d’eau limpide qui sans arrêt se dérobent à eux, et cela traduit leur soif qui, elle, est bien réelle.
Dans ce livre-ci (« Eloge des bâtards ») il s’agit d’opérations de survie dans un monde futur qui est presque déjà le nôtre, manigancées par un groupe de personnes qui ont presque toutes un prénom monosyllabique et qui se réunissent clandestinement les uns chez les autres en principe pour planifier leurs actions futures mais qui, au lieu de cela, se racontent leurs histoires individuelles, toutes marquées par des pères absents ou des mères foutraques. Ainsi se rendent-ils compte qu’ils sont tous bâtards, d’où le titre du livre et le nom qu’ils finissent par donner à leur groupe gentiment terroriste.
Y a eu un silence, peut-être qu’on n’avait pas mesuré à quel point Fox était deux (p. 69)
Ce sont donc des histoires de gens qui sont à la recherche d’eux-mêmes comme Fox, qui a un père qu’il n’a connu que trois fois, dont l’une à la chambre 22 de l’hôtel de Valence où il était venu rencontrer sa mère, enfin, baiser sa mère, pendant que lui on l’avait laissé seul, et qui est revenu dans cette chambre bien plus tard pour y faire l’amour lui aussi mais avec des hommes comme si l’un d’eux allait être peut-être son père. Roman construit autour de la parole à moins que ce ne soit autour de l’écoute : la narratrice angoissée se souvient de sa rencontre avec un autre gars, catalogué schizophrène et qui s’était soigné grâce à un groupe d’entendeurs qui lui avaient appris comment discerner les différents types de voix qui se font entendre à l’intérieur de soi.
Ces gens sont des militants, mais des militants un peu particuliers, qui luttent pour conserver le monde. Le monde ? Une somme d’images qui demeurent en nous et qui lentement disparaissent si l’on n’y prend pas garde ainsi qu’ont disparu les cabines téléphoniques, les juke-boxes, les billards électriques, les anciens bancs publics, les bus à plateforme, et tout ce qui menace de disparaître et dont nous n’avons peut-être pas idée y compris bien sûr les insectes et des espèces d’oiseaux, car tout cela s’inscrit dans notre temps de réduction de la biodiversité et de remplacement des spectacles et des réjouissances corporelles par les éléments du virtuel.
De ce point de vue, nous retrouvons les thèmes de Bifurquer, le livre co-écrit par Stiegler – qui vient de décéder, ce qui me laisse sur le regret de ne l’avoir jamais rencontré – même si c’est de manière moins directement « philosophique ». Parmi les thèmes communs, figure cette suggestion que l’action ne passe pas forcément par les canaux classiques de la revendication et des slogans. De même que Stiegler et al. mettent l’accent sur le développement de tâches qui par elles-mêmes réduiraient « l’anthropie » (comme l’éducation des jeunes enfants), Olivia Rosenthal insinue que parler de soi, savoir le faire, est une manière de faire groupe, de mettre en place des attitudes collectives plus efficaces que les manifestations et les actes violents. Parler de soi suppose évidemment l’écoute de l’autre, deux processus complémentaires qui sont comme le prélude à la mise en place d’une résistance, une nécessité pour que les individus se soudent les uns aux autres.
Dans une interview qu’elle a donnée, elle dit ceci :
Dans le livre, l’idée est de comprendre comment l’individu s’arrime à un groupe. Le groupe finalement ne peut se constituer qu’à partir du moment ou chacun prend la parole en son propre nom. C’est l’idée que l’action n’aura du sens qu’à partir du moment où chacun investit sa propre personne, son individualité, qu’il raconte quelque chose de son identité, sachant que ces identités sont fluctuantes et incertaines. C’est cela l’enjeu : comment arrive-t-on à s’engager en tant que soi-même ? C’est la condition même de l’existence du groupe.
C’est quelque chose que l’on doit méditer fortement, on se rend compte évidemment que ce n’est pas si simple à mettre en œuvre, que déjà, il faut être… plusieurs (!) et pas un ou deux. Dans l’éloge des bâtards, ils sont neuf, c’est plus que un ou deux, mais ce n’est pas beaucoup quand même. Chacun peut se poser la question : autour de soi, qui ? Combien ? Est-ce que le bon fonctionnement du groupe ne requiert pas abnégation, modestie, effacement de soi ? Toutes qualités difficiles à trouver… mais que la littérature aide à trouver, si on est attentif. En lisant ce récit multiple, je pensais à Nathalie Sarraute dans ses Tropismes ou dans un roman comme Martereau, que j’ai lu et aimé autrefois et que j’aimerais relire. La grande écrivaine décortiquait avec un soin extrême les minuscules mouvements de la pensée et du cœur qui se font jour au cours d’une conversation, d’une rencontre, mouvements qu’elle appelait tropismes et qui nous orientent face à l’autre. Il faudrait relire Sarraute, davantage expliquer ce que sont ces mouvements intimes, comment ils se forment, comment à partir d’eux se créent des amours ou des inimitiés. La narratrice d’Olivia Rosenthal s’analyse ainsi pendant qu’elle écoute Fox, Full, Oscar, Filasse, Clarisse, Sturm, Gell ou Macha, elle sait par exemple qu’à certains moments elle doit se protéger ou s’empêcher de parler afin de protéger les autres, c’est ce qu’elle appelle « élever un mur de protection » autour des paroles qui s’échangent.
Au début, j’ai eu du mal à jointer les pierres. Certaines n’avaient pas la forme requise. D’autres s’emboîtaient mal. Mais petit à petit j’ai manié la truelle avec plus d’adresse, mes gestes se sont affermis, le mur a grandi, il s’est élevé, il m’a mise à l’abri de Fox et lui de moi (p. 62).
Le cinéma occupe beaucoup de place dans ce livre, on pourrait presque associer chaque personnage à un film ; défilent ainsi des images des Parapluies de Cherbourg, de l’Armée des Ombres ou de la Prisonnière du désert, comme si les images des films étaient finalement plus sûres que nos souvenirs (ce qui n’est certainement pas faux).
Images, sensations plus fortes, plus fiables que les noms, dont on ne sait jamais vraiment l’histoire. Est-ce que je m’appelle vraiment Untel ou Untel ? Ne vaut-il pas mieux se donner à soi-même un nom arbitraire mais que l’on a choisi, comme simple étiquette ? Cette discussion qui a lieu au début du livre rappelle les vieilles questions abordées par les philosophes grecs, comme dans le Cratyle, où Socrate se demande si les choses ont vraiment un nom bien à elles ? Il fait alors dévier la question vers une théorie des onomatopées, des sonorités ayant par elles-mêmes un sens, contrairement à tout le courant linguistique moderne qui se basera sur l’arbitrarité du signe. Eternel débat entre l’essentialisme et le nominalisme, qu’Olivia Rosenthal tranche plutôt dans le sens de l’arbitraire. Tout ça pour dire qu’une question aussi banale que, c’est quoi ton nom, ça bouleversait nos repères, ça nous renvoyait à nos ancêtres. Et on n’aimait pas ça. Se baptiser soi-même, c’était beaucoup plus sûr. Ça avait l’avantage de nous protéger. (p. 29).
Ce roman est donc plus qu’un, voire plusieurs, récits (Olivia Rosenthal dit quelque part qu’elle s’est inspirée d’interviews qu’elle a faites de gens qui se déclaraient bâtards), c’est aussi un traité de philosophie, en même temps qu’une réflexion sur les conditions à réunir pour intenter des actions de groupe.
j’ai pensé qu’il fallait changer mon fusil d’épaule, qu’on en avait peut-être assez de la philosophie. Le partage des idées est certes attirant, mais on n’en finirait plus de multiplier les références, de citer tel ou tel, chacun ayant finalement autant de raisons que tel autre de nous convaincre, comme si chaque « système » ou bloc d’idées avait ses propres avantages et qu’on dût se plier à chacun en négligeant les contradictions qui pourtant doivent exister entre eux. Madame Stengers méritait-elle autant d’attention ? Ce qu’elle dit est charmant, au sens propre du terme, c’est-à-dire que cela nous charme le temps de la lecture et que ce n’est qu’en s’en détachant qu’on se dit mais ai-je bien lu ? Est-ce bien cela qu’elle a voulu dire, lorsque, par exemple, elle néglige les pouvoirs de la vérité ou qu’elle balaie d’un revers de main des siècles de travaux scientifiques au prétexte qu’ils seraient « trop abstraits », trop mathématiques, comme si Schrödinger était un enfant qui n’avait fait que jouer avec des concepts qu’il savait bien manier lorsqu’il produisait le modèle mathématique de la fonction d’onde ? Impression que tout peut se dire pour peu que l’on y mette les formes, que l’on ait un minimum d’aura pour imposer sa voix… mais qu’il n’y aura personne à l’arrivée pour demander mais êtes-vous bien sûr(e) ? De quelle assurance, de quelle certitude tenez-vous ces idées ? Croyez-vous vraiment qu’il suffise de se dire rebelle pour briller plus et parler plus fort que le penseur ou la penseuse d’à côté ?
Alors je suis retourné à la littérature. J’ai lu le dernier livre de J. M. G. Le Clézio, qui m’a enchanté. J’ai lu Eloge des bâtards d’Olivia Rosenthal qui m’a amusé, j’ai eu une pensée pour Aaron Appelfield dont on parlait sur France Culture, et plus tard aussi pour Anna Akhmatova dont on parlait aussi sur France-Culture (comment avait-elle pu écrire une poésie si subtile au temps de la Révolution, en parallèle avec celle de Maïakovski?) et j’ai ressenti comme un réchauffement du moral, un plaisir, une sensation, des émotions, en bref un plus de vie.
Dans le livre de Le Clézio, Chanson bretonne suivi de L’enfant et la guerre, j’ai appris d’où venait ce nom de Le Clézio : « talus » en breton, et qu’il existe un hameau du centre de la Bretagne, dans la commune de Louargat, qui se nomme « Le Cleuziou ». Apprendre cela a été pour moi autant une révélation, une surprise que savoir tout à coup que des anti-neutrinos pouvaient exister et traverser la planète dans le sens inverse que leurs confrères délivrés de leur préfixe… apprendre où J.M.G. passait ses vacances étant enfant, près de Bénodet, et qu’ainsi existait un « sainte Marine » dont le nom dérive d’un Saint Moran, autrefois un Saint Voran, où il y avait un château appartenant à une lointaine marquise et qu’on y donnait des fêtes chaque année en août où les garçons et les filles se fréquentaient tandis que l’on ne voyait de la marquise en sa haute fenêtre que dépasser le chignon blanc… puis apprendre où ce même J.M.G. avait aujourd’hui posé ses pénates, village au nom discret du côté de Douarnenez, apprendre tout cela, oui, me faisait plaisir et c’était comme si tout à coup j’étais admis dans l’entourage proche du grand écrivain. Je fus aussi très ému de lire les premiers souvenirs, souvenirs de guerre d’un enfant de trois ans, au tympan fracassé par l’éclat d’une bombe de 277 kilos tombée dans le jardin de l’immeuble de sa grand-mère, puis, plus tard lorsque la famille réduite aux mère, grand-mère et frère (le père qui s’était engagé dans l’armée britannique en tant que médecin en Afrique n’ayant pu les rejoindre parce qu’un troufion de garde au poste frontière de Tamanrasset s’était cru malin à interdire l’entrée en France à un soldat anglais forcément soupçonné d’espionnage) s’était réfugiée à Roquebillière, sur les hauteurs du pays niçois, souvenirs de la faim (déjà évoquée dans la Ritournelle de même nom), souvenirs des jeunes garçons résistants dont l’un perdit la vie dans l’éclat de la bombe qu’il transportait… souvenir de la colonne de juifs qui tentait de trouver refuge de l’autre côté de la frontière, passant à Berthemont et s’y faisant massacrée, femmes et enfants compris, et vieillards par les Allemands en embuscade… J.M.G. avait faim, de cette faim dont à cet âge il ne pouvait connaître le nom et qui, pour lui, se manifestait par un sentiment permanent de manque, qui dut probablement le suivre toute sa vie. Connaître cela est tout aussi révélateur que le détail de mémoires dont Le Clézio, prenant exemple sur Isidore Ducasse, dit qu’il ne les écrira jamais. Je reproche beaucoup à Charles Juliet de m’avoir dit une fois qu’il trouvait que Jean-Marie Le Clézio écrivait mal. Ce n’est pas vrai. Il a une écriture discrète mais en même temps sûre d’elle, qui fait avancer la narration avec une clarté qui nous apaise, même lorsqu’elle évoque des événements terribles. Le Clézio, c’est la ligne claire en littérature. J’en veux aussi à cet obscur professeur de lettres qui écrivit un jour une tribune dans le journal « Le Monde » pour dire que « Le Clézio ne méritait pas le Nobel » parce que son livre « L’Africain » commençait par cette phrase, aux yeux du critique dérisoire : « tout être humain est le résultat d’un père et d’une mère ». C’est ne pas avoir compris ce qu’est la phrase inaugurale d’un récit, qui peut être la plus banale qui soit, cela n’a pas d’importance, pourvu qu’elle produise chez le lecteur une attente, qu’elle suscite en lui cette réaction : oui la phrase est banale mais parce qu’elle l’est et parce que celui qui l’écrit est un écrivain dont je présume qu’il a des choses à me dire, je dois aller plus loin pour savoir ce que me cache cette apparente insouciance.
Je re-attaque le livre d’Isabelle Stengers, « Réactiver le sens commun ». Attaquer possède deux sens en français, l’un consistant dans la manifestation d’une opposition claire, l’autre, plus modéré, dans le simple fait de se mettre à l’œuvre, comme quand on « attaque » un col à bicyclette (j’attaquerais bien le Ventoux une fois par exemple, mais rassurez-vous : avec un vélo à assistance électrique!). J’attaque donc dans le second sens en attendant de peut-être, s’il y a lieu, attaquer dans le premier. Comme déjà dit dans mon billet précédent, ce livre est une défense et illustration des idées d’Alfred North Whitehead, idées remises au goût du jour et supposées convenir particulièrement à notre époque. Il part de l’axiome selon lequel « opposer les scientifiques à un « public prêt à croire n’importe quoi » – et qu’il faut maintenir à distance – est un désastre politique ». Je veux bien croire en cette idée, je veux bien reconnaître la part d’arrogance qui peut exister dans le discours de certains scientifiques (surtout des scientifiques établis, reconnus, munis d’une aura qui garantirait leur parole) et qui peut conduire à un fossé abyssal les séparant du reste de la population. Je reconnais aussi qu’on a tendance à penser que le grand public est prêt à croire n’importe quoi, et qu’on pense en avoir la preuve à chaque instant lorsqu’on jette un œil distrait sur Facebook ou d’autres réseaux sociaux. Tel affiche sa certitude anti-vaccin, tel autre va jusqu’à nier l’existence des virus, un autre encore se déclare persuadé que tout cela n’est fait que pour enrichir Bill Gates… évidemment sans preuve et sans argument que l’on puisse soutenir plus de trois minutes. Mais dès que j’énonce cette vérité qui me semble aller de soi que la première chose que je demande avant d’accepter une thèse, c’est une preuve ou seulement un argument sérieux… je tombe en porte-à-faux par rapport à ce que défendent Stengers et Whitehead… du moins semble-t-il. Puisqu’il est dit quelque part que le premier devoir du philosophe est de marquer sa vigilance par rapport aux abstractions, aux raisonnements, aux preuves (« l’argumentation ou la preuve ne conviennent pas à la philosophie », p.71). Si l’argumentation et la preuve ne conviennent pas à la philosophie, on se demande bien ce qui lui convient, et, en retour, on se demande à qui ou à quoi peuvent bien convenir la preuve et l’argumentation… Les thèses défendues par Isabelle Stengers ne seraient-elles pas simplement l’incarnation d’un scepticisme sophistiqué ? Auquel cas, elles ont à répondre à l’argument anti-sceptique vieux comme le monde (mon ami Kevin P. me dit qu’il remonte à Platon) selon lequel celui qui soutient que « rien n’est vrai » est pourtant obligé d’admettre le contraire en proposant cette thèse pour vraie… Ici, l’argument doit juste être un peu modifié : si aucune preuve et aucune argumentation ne valent pour établir un fait ou une idée, alors puisque le livre qui le dit est justement une argumentation de cette idée… il ne nous resterait qu’à le refermer ! Nous n’irons pas (ou pas tout de suite) à cette extrémité. Reconnaissons que même lorsqu’un auteur, ou une autrice, expose une idée douteuse, il lui arrive de dire des choses intéressantes.
Alfred North Whitehead
Alfred North Whitehead est sans arrêt présenté comme un grand mathématicien : il le fut sans doute, lui qui a dispensé des cours dont Bertrand Russell a profité, mais quel dégoût des maths s’est emparé de lui pour en arriver à exprimer une telle défiance à l’égard de la discipline ? Sans doute, tel un abbé défroqué, avait-il abandonné depuis longtemps le sens de la rigueur mathématique lorsqu’il s’est mis aux travaux de sa seconde période qu’il a voulu situer sous la rubrique métaphysique. Il n’en reste pas moins que Stengers continue à le nommer mathématicien comme si cette étiquette devait magnifier sa pensée, on conviendra que c’est un peu suspect comme attitude au moment où justement on part en guerre contre l’abstraction… mais enfin… pardonnons.
Maintenant que j’ai lâché mon venin, nous allons essayer de voir les choses intéressantes… avec lesquelles, disons, j’exprimerai plutôt mon accord…
Je crois que l’incompréhension qui existe entre scientifiques et grand public est d’ordre surtout idéologique. Depuis très longtemps (au moins le XVIIème siècle), les sciences sont perçues comme occupant des positions hiérarchiques, avec à la base, celle que l’on pourrait nommer la reine des sciences (si l’on excepte les mathématiques qui ont toujours eu un statut particulier – sont-ce bien des sciences ?) à savoir la physique. D’où il vient qu’aujourd’hui le physicien est toujours présenté avec révérence comme étant le scientifique par excellence (voir par exemple le rôle joué par Etienne Klein dans les médias et dans la réflexion contemporaine) et d’où il vient aussi que la « philosophie spontanée du savant » (pour parler comme feu Althusser) est le physicalisme. La vieille idée positiviste (au sens propre puisqu’elle était celle d’Auguste Comte) prévaut : l’idéal des sciences serait qu’elles se réduisent toutes à la physique. Chimie, biologie, et même neurosciences devraient emprunter les mêmes voies et finalement trouver leur formulation définitive en termes physiques. Dans le dernier cas, celui des neuro-sciences, on connaît les débats déjà anciens, mais qui existent toujours, agitant la « philosophie de l’esprit » : dualisme contre monisme, fonctionnalisme contre matérialisme etc. Les époux Churchland, Paul et Patricia, défendent la thèse connue sous le nom « d’éliminativisme ». En gros, nous ne continuerions à parler des états mentaux en termes « psychologiques » que par commodité, un jour viendra où on pourra complètement se passer de ce vocabulaire en l’ayant remplacé par les corrélats physiques objectifs dans le cerveau des états en question (au lieu de dire « j’ai mal », « ma fibre C est activée » par exemple). Ce jour là, on aura « réduit » les neuro-sciences à la physique. La biologie repose abondamment sur le même schéma : le mystère du vivant serait éclairci le jour où nous aurions enfin pu expliquer « physiquement » les mécanismes de la vie. Evidemment, nous en sommes loin et nous avons de fortes chances d’en rester loin très longtemps (et heureusement je crois!). Nombreux sont les auteurs (Giuseppe Longo est de ceux là en ce qui concerne la biologie, mais aussi Jean-Jacques Kupiec et d’autres) qui avancent que la biologie, ça ne marche pas comme ça…
Paul et Patricia Churchland
C’est bien là que nous tombons d’accord avec Isabelle Stengers (entre autres). Comment connaître la vie, et puis même qu’est-ce que connaître la vie ? (je ne parlerai pas ici de Canguilhem, faute de compétence). Y a-t-il une autre façon de connaître que celle qui consiste à ramener à la physique ? Y a-t-il des obstacles particuliers à la connaissance de la vie qui font que celle-ci ne saurait emprunter la voie d’une mathématisation, ni même celle de « principes abstraits » applicables en tout lieu et en tout temps ? C’est ici que la pensée de Whitehead, relayée par la philosophe bruxelloise, nous intéresse. Et on comprendra aussi que si de tels obstacles existent pour la biologie, alors a fortiori existeraient-ils pour d’autres domaines connexes au vivant comme celui du langage (une mathématisation du langage a-t-elle un sens?) voire même des sciences humaines en général (sociologie, anthropologie…). D’où tout l’intérêt que j’accorde à cette démarche. A-t-on raison de vouloir rendre compte de structures linguistiques ou de structures anthropologiques (par exemple celles de la parenté, selon la démarche immortalisée par Claude Lévi-Strauss) au moyen de structures mathématiques ? (le terme de « structure » a-t-il d’ailleurs le même sens dans les différents usages?).
Alfred North Whitehead doute que les mêmes méthodes puissent s’appliquer à la physique et aux autres sciences, ne serait-ce que, tout simplement, parce que la biologie a affaire avec une réalité – les vivants – dont l’existence n’est pas donnée, comme celle de l’électron ou du proton, mais « continuée au sens d’un accomplissement ». Le biologiste, dit Isabelle Stengers – en fait, elle dit « la » biologiste par parti pris féministe – « ne mettra pas en doute la réalité des vivants parce que elle-même est située par cet accomplissement ». « Elle cherche à comprendre comment cela tient, et plus elle analyse, plus elle s’étonne. Les questions qu’elle apprend à poser ne vérifient pas une hypothèse dérivée d’une théorie, mais dérivent de ce qu’elle observe et qui l’intrigue » (p. 77). On peut méditer là-dessus, bien sûr, se faire la remarque qu’en dépit de ce qui est dit, il y a toujours des idées, donc des hypothèses, qui pré-existent à l’observation, ce qui se passe seulement est que l’on est sans doute plus prompt à rejeter ces idées ou ces hypothèses face à un fait naturel que nous n’avions pas prévu que le physicien n’est prêt à le faire en physique (où là, les hypothèses pèsent d’un poids énorme, du poids peut-être représenté par le coût des expériences – coût à la fois humain, intellectuel et financier ! – qui ont participé à la manière d’échafauder la théorie). Je me souviens avoir entendu sur de tels sujets le philosophe et éthologiste Dominique Lestel lors d’un de ces séminaires LIGC dont j’ai déjà parlé, c’était à propos des études sur les animaux et des surprises incroyables que l’on avait pour peu que l’on refuse les études en laboratoire et qu’on observe les différentes espèces dans leur milieu naturel, en toute liberté. L’intelligence animale à ce moment là se révèle, elle n’est pas bornée comme on a pu l’imaginer auparavant, par « l’absence de langage ».
Contrairement à la manière dont on a pu, par le passé, tenter de réduire le corps vivant à ses éléments physiques, Whitehead a posé l’existence d’entités autonomes, a priori non réductibles. Il les a appelés « organismes », en entendant par là « une entité dont l’existence requiert un maintien à l’existence, dont la réalité est une réalisation continuée, endurante, dépendante de la « patience » de son environnement par rapport à ce que cette réalisation exige d’elle ». Cette réalisation serait de plus « l’accomplissement d’une valeur, celle de la réussite à se conserver soi-même ». Nous sommes ici un peu troublés à cause de notre accoutumance à concevoir une séparation radicale entre faits et valeurs. Il y en aurait donc une, de ces valeurs, qui pré-existerait à notre observation du monde vivant et qui serait peut-être même la condition pour que cette observation soit possible… En plus, on ferait endosser à notre environnement, une autre de ces valeurs, que nous avons coutume de caractériser comme une vertu : la patience… patience de bien vouloir nous accepter tels que nous sommes, de bien vouloir accepter les exigences du maintien de nos vies. Et il en faudrait de la patience, à notre environnement (à la Terre?), pour ne pas réagir plus violemment à ce que nous sommes…
Pour Isabelle Stengers, mettre le concept d’organisme au cœur de la question ontologique, comme le fait Whitehead, c’est renouer avec le sens commun. « Il n’est, dit-elle, qu’à considérer le succès des histoires d’animaux ». Et de fait, nous avons tous été plus ou moins bouleversés par celles qui sont venues à nos oreilles récemment, qu’il s’agisse de la panthère blanche de Sylvain Tesson, de l’ours de Sibérie tombée sur les épaules de Nastassja Martin, ou, plus proches de nous, des histoires d’élevage de moutons racontées par Guillaume Lebaudy (et des films de Natacha Boutkevitch). Chaque fois, nous avons fait un « Oh ! » de surprise et souvent nos catégories traditionnelles se sont mises à vaciller comme quand Nastassja Martin s’est permise d’affirmer que l’animisme des peuples du Nord était mieux apte à parler de ces expériences que ne l’est notre vision prétendument scientifique. Baptiste Morizot est aussi un penseur de cette tendance, qui nous incite à avoir une pensée hybride à l’approche du vivant, mi-animiste, mi-rationnelle afin d’être plus proches des êtres de nature, l’hybridation n’est-elle pas le propre de la nature quand celle-ci par exemple nous montre, contre toute attente, des hybridations d’espèces que la théorie classique pourtant interdit ? Isabelle Stengers cite également Vinciane Despret qui « demande que les chercheurs posent de bonnes questions aux animaux ». Et ce qui fait vibrer en nous une corde particulièrement sensible, c’est le fait de relever que, notre espèce étant elle aussi animale, ces nouveaux principes d’observation devraient également s’appliquer à nous, pauvres humains qu’une « science » baptisée « sociologie » n’arrête pas de sonder et de découper en strates, catégories, hiérarchies afin d’élaborer, nous concernant, une « connaissance objective » qui sera, dès que prononcée, vouée aux oubliettes parce que les humains que nous sommes refusent profondément, au dedans d’eux-mêmes, d’être ainsi étiquetés et hiérarchisés, et que, de toutes façons, la seule considération de telles opérations dites savantes provoquerait des réactions la faisant voler en éclats…
La philosophe belge est dure avec les sociologues qui se croient tout permis. Cela me rappelle un travail d’autrefois où j’avais été amené à côtoyer des psycho-sociologues (les pires!) dont certains avaient mené un travail d’enquête afin d’évaluer la propension qu’ont des « sujets » en situation difficile (face à un « événement fâcheux » disaient les chercheurs…!) à se laisser délaisser d’objets qui leur sont chers… Ces messieurs allaient dans les hôpitaux et demandaient à des patients prêts à passer en salle d’opération s’ils voulaient bien leur remettre leur montre (!). Et après ça, on remplissait des feuilles de statistiques. Isabelle Stengers, elle, pointe les sociologues enquêtant sur les pratiques addictives : « souvenir de l’époque où j’apprenais à comprendre l’importance des mouvements d’usagers, en l’occurrence celui des « usagers » non repentis ni repentants de drogues illicites, mais surtout souvenir de ma colère à entendre un sociologue souligner le caractère « construit » de ce qu’il pouvait obtenir des acteurs de ce mouvement, bien moins riche en nuances, contradictions, ambiguïtés, disait-il, que le témoignage des « simples consommateurs ». Je me souviens lui avoir craché au visage… ». Les plus sûrs du bon droit des (psycho-)sociologues diront évidemment que tout cela est une question d’éthique, et qu’il suffit d’ajouter des comités d’éthique pour que tout se passe bien, « dans la conformité aux lois ». Je ne crois pas que cela soit si simple… L’éthique conçue ainsi ne fait que censurer (éventuellement), elle n’entre pas dans le cœur de la méthode, or c’est celle-ci qui est viciée quand le chercheur « oublie » sciemment la nature humaine, ou, dans un autre contexte, la nature vivante de son objet.
Est-ce à dire pour autant qu’il faille renoncer aux visées « explicatives » de la science, à une théorisation qui tente de reproduire à l’intérieur d’un modèle l’enchevêtrement des causes et des effets ? Whitehead a toujours eu une attitude sceptique. Il renonce à la « généralité », rien n’est vraiment stable pour lui, ou alors de manière très provisoire, temporaire, comme quand il caractérise une société comme « ce qui, à travers le changement, maintient, ne serait-ce qu’un court laps de temps, la continuité d’un style, d’un caractère » et qu’il dit que « appartenir à une société, pour les occasions actuelles, c’est se déterminer sur un mode conforme à cette continuité » mais que « le respect de cette conformité, rien ne les y oblige, ni même ne le leur demande ». On est loin des catégories quasi essentialistes dont usent les sociologues. Un fait, pour Whitehead, « n’illustre aucune généralité ». On comprend évidemment qu’avec de tels principes, on soit loin de toute théorisation excessive… Certains même pourraient dire : loin de toute rationalité. Car en effet où peut bien venir se loger la rationalité dans toute cela ? Il semble que le métaphysicien ait compris l’objection : « notre doctrine semble avoir détruit le fondement même de la rationalité ». Comme les mathématiques et la logique se fondent pour lui sur une sorte de permanence (les nombres restent stables en dépit des opérations qui les affectent), elles seraient inapplicables. Comment se fait-il que Socrate, dont on déduit qu’il est mortel à partir des prémisses fameuses selon lesquelles il est un homme et que tout homme est mortel, ne soit pas affecté par les prémisses qu’on lui applique, que le Socrate qui sort mortel de ce syllogisme soit le même que celui qui est entré homme dans la prémisse ? On peut sourire de cela, qui reste… éminemment théorique, et pourtant il est légitime d’y accorder une attention. D’où vient en effet le syllogisme ? qu’est-ce qui explique sa force ? On en vient de nouveau à mes billets proposés il y a quelques semaines sur ce blog, inspirés par les travaux de Jean-Yves Girard. J’oserai à peine dire que si Whitehead avait connu la logique linéaire, il aurait été moins sceptique (!) car, justement, celle-ci est l’exemple d’une théorie logique où les prémisses sont affectées par les procédures qui s’appliquent à elles (et pour cause, puisqu’elles sont consommées, non utilisables une nouvelle fois, ce qui résolvait, entre parenthèses, le paradoxe de « l’ensemble des ensembles qui ne s’appartiennent pas à eux-mêmes », l’ensemble qui apparaissait dans sa première occurrence n’étant plus le même que celui qui apparaissait dans la seconde!). Il n’y aurait donc pas, à vrai dire, d’objection à ce que le raisonnement logico-mathématique s’applique à des entités fluctuantes, à des processus, davantage qu’à des constantes ou à des états stables. On ne serait pas forcément astreint à ce que la rationalité soit limitée, comme le prétend Whitehead, à la gestion des analogies ! (« Le fait que nous ne puissions expliquer ni les sociétés, ni le caractère qu’elles maintiennent, ni la façon dont elles cessent de tenir ne nous situe pas dans une réalité inintelligible. Nous procédons par ce mode d’abstraction qu’on appelle « analogie », repérant des ressemblances et des distinctions parmi la diversité »).
La raison réduite à la gestion des analogies, c’est peu de choses. Nous disposons d’un outil, les mathématiques, qui est d’une grande puissance pour générer des analogies, pourquoi faudrait-il s’en priver ?
On devine évidemment que le reproche fait concerne une utilisation des mathématiques qui serait comme un plaquage sur le réel, forçant celui-ci à ressembler au modèle quand bien même il s’en éloignerait. Erreur fatale en effet de bien des travaux de mathématiques appliquées. Mais si l’on suit un mathématicien comme Alain Connes (pour peu qu’il nous soit accessible…) on réalise que le travail du mathématicien n’est pas celui-là, que, concernant la physique, il est de plain pied en elle pour décrire des modèles d’univers qui sont au cœur de la réflexion du cosmologiste qu’aucune autre description ne pourrait procurer.
Alain Connes
Tout ceci donnerait donc plutôt une envie de se lancer dans un plaidoyer pour l’abstraction. Celle-ci étant l’une des facultés essentielles de l’esprit humain, pourquoi faudrait-il s’en méfier plus que d’autres ? Se passer de l’abstraction et des raisonnements qu’elle permet, serait comme se passer de marcher quand on a des jambes. Est-ce que l’on refuse la bicyclette au principe qu’elle est en elle-même une magnifique abstraction du mouvement ? Longo et al., dans le premier chapitre de « Bifurquer », disent le génie de Galilée quand il énonce qu’un mobile laissé à lui-même et soumis à aucune force, loin de rester immobile, se meut selon un mouvement rectiligne uniforme : c’est grâce à cette abstraction, qui n’est perçue par personne, que peut découler la description de tous les autres mouvements, ils la rapprochent de l’affirmation posée dès le premier article de la Déclaration des Droits de l’Homme et du Citoyen : « les hommes naissent et demeurent libres et égaux en droit » qui est une abstraction magnifique car contraire à tout ce que chacun peut percevoir autour de soi, et qui pourtant « modèle les organisations sociales en fonction d’un nouvel état de droit » et fournit un outil indispensable car s’en déduisent toutes les luttes pour davantage d’égalité sociale et de liberté.
Le point de vue de Whitehead fait comme si en nous livrant à l’abstraction, nous abandonnerions de ce fait le contact avec le réel, alors que le processus d’abstraction est lui-même dans le réel comme faisant partie de notre esprit, il participe du réel au même titre que d’autres processus, il conduit à une opérationnalité de la raison qui mène à la science, ce dont nous n’avons pas à rougir. A condition de ne pas céder au scientisme qui est une visée simplificatrice et fausse de l’aventure scientifique.
C’est à croire que tout ce que je lis me ramène à ça : comment faire exister une intelligence qui serait apte à comprendre ce que nous avons du mal à comprendre dans l’univers, mais aussi dans notre monde social, dans notre humanité, une intelligence qui permettrait enfin de trouver des solutions à ce qui nous menace dans le futur très proche (changement climatique, pénurie de ressources dont l’eau, guerres, pandémies…). Dans les billets précédents, j’ai suivi la voie proposée par le collectif « Internation » (Stiegler, Longo, Montévil et al.) qui prétend que l’intelligence est reliée à l’entropie, donc au cosmos, étant une « néguentropie », autrement dit une possibilité, la seule peut-être, de contre-carrer l‘évolution vers une entropie croissante. Cela signifie que non seulement l’intelligence serait nécessaire : qui en douterait ? mais qu’en plus, sa seule existence contribuerait à réduire la vitesse avec laquelle nous allons à notre terme : chaos et destruction. Il y aurait une sorte de performativité de l’intelligence : dès qu’elle se montre, elle agit (quand penser, c’est faire). Des discutants sur FB (le jeune philosophe Jean-Louis Vuillerme en particulier) me font remarquer que nous sommes loin d’atteindre le moment où l’énergie aurait disparu signant notre fin : le soleil est là pour longtemps encore, et, dit J-L. Vuillerme : « l’énergie solaire restera disponible sur Terre bien au-delà de la disparition de l’humanité, quoiqu’elle fasse ». Cela est vrai, bien sûr. Mais le problème avec l’énergie n’est pas tant son existence là ou ailleurs que la possibilité de l’utiliser et de la stocker. Si le problème de l’entropie ne se pose pas dans l’absolu, il se pose néanmoins pour tout système qui ne parviendrait pas à utiliser l’énergie dont il dispose, disons sous forme … d’entropie relative (si cela a un sens). Toutefois, je veux bien reconnaître que l’argument « par l’entropie » n’est pas décisif, voire même simplement, qu’il n’est pas nécessaire. Même sans lui, les problèmes relatifs à l’avenir de l’humanité et à la disparition des espèces suffisent en eux-mêmes à souhaiter accélérer la marche de l’intelligence.
Et alors la question se pose : si son niveau nécessaire ne peut être atteint dans l’enceinte d’une étroite enveloppe individuelle, ne faut-il pas passer à un stade trans-individuel ? L’idée n’est pas neuve. Kevin P. me signale les travaux de Pierre Lévy sur l’intelligence collective qui datent déjà d’un bon nombre d’années. Ils mettent en question la capacité qu’aurait l’espèce humaine (voire… d’autres espèces vivantes ? Toute espèce vivante?) à collaborer pour faire émerger des solutions nouvelles. La problématique des conventions citoyennes, dont l’une a agité la vie publique récemment en France, met particulièrement en avant ce type de question (et peut me chaut que l’on critique ses résultats ou que l’on fasse au pouvoir le procès d’intention de les ignorer).
Jusqu’à présent, on a considéré que la production intellectuelle authentique était du ressort des seuls « autorisés », de ceux et celles qui sont passés par les canaux des études supérieures validées par des diplômes, qui incarnent une certaine professionnalisation de la science et plus généralement du savoir, alors que, semble-t-il, si l’on accomplissait des efforts intenses d’éducation et d’information auprès du grand public, celui-ci serait capable d’émettre des idées qui jusque là faisaient défaut, capable donc de s’emparer lui-même de son destin. Noam Chomsky a souvent fait la réflexion que les personnes ordinaires étaient capables de performances intellectuelles tout autant que les savants et les décideurs, mais que le seul problème était qu’ils ne les mettaient au service que d’objets secondaires. Par exemple, ils déployaient des ressources mentales étonnantes pour commenter… des matches de base-ball. Ce non-accès aux thèmes importants leur était barré, donc, non pas par un manque d’aptitude mais par une division politique des tâches.
J’ai regardé récemment la vidéo d’une conférence donnée par le cosmologiste et astrophysicien David Elbaz faisant le tour des obstacles rencontrés par toutes les tentatives de compréhension de l’univers, que l’on essaie d’appliquer la théorie des cordes, celle des super-cordes, celle de la gravité quantique à boucle, de la supersymétrie, que l’on envisage une anti-gravité ou que l’on aille même jusqu’à suggérer que notre univers ne serait qu’un hologramme (donnant tout à coup de la substance aux théoriciens d’un univers plat – si ce n’est de la terre plate!). A la fin, désolé, il s’adressait au public nombreux qui était venu l’écouter en suggérant que, finalement, des auditeurs suffisamment éclairés des principes de base pouvaient aussi bien participer au développement de la science. Cela sonnait comme un appel au secours.
Sur ces entre-faits, tombe entre mes mains le livre d’Isabelle Stengers, « Réactiver le sens commun », sous-titré : « Lecture de Whitehead en temps de débâcle ». Je connais très peu Whitehead, juste assez pour savoir qu’il collabora avec Bertrand Russell pour l’écriture d’une des bibles logiques des temps modernes : les Principia Mathematica, bible dont on peut dire aujourd’hui qu’elle reposait sur des bases biaisées puisqu’on cherchait à asseoir les fondements des mathématiques là où l’on sait maintenant que la problématique des fondements est illusoire. Le fait est qu’il semble y avoir une longue distance entre ses premiers travaux et ce qu’ils sont devenus par la suite. Sir Whitehead serait devenu une sorte de rebelle. Et cela fait bien les affaires d’Isabelle Stengers qui sans doute elle aussi souhaiterait être considérée comme une rebelle…
Je ne suis pas a priori partisan du « sens commun » dont chacun sait combien il peut être mis en défaut, comment aussi il peut s’avérer prisonnier de préjugés et d’affects (le poussant par exemple à valoriser exclusivement ce qui rassure ou « donne de l’espoir »), « sens commun » qui recouvre souvent ce qu’autrefois on nommait « idéologie » c’est-à-dire cette tendance spontanée que l’on a à interpréter les faits dans un sens dominant (« l’idéologie dominante est l’idéologie de la classe dominante » récitait tout bon marxiste des années soixante…). Le sens commun n’est-il autre chose après tout que l’ensemble des poncifs qui scandent ce que Stengers appelle avec beaucoup d’emphase « notre rumination », comme elle décrirait un troupeau de vaches en accordant le plus grand respect à leur fonction digestive. Le sens commun semble aussi se recouper avec cette « découverte » de l’ère covidienne que l’on a baptisée l’ultracrépidarianisme… se sentir toujours autorisé à aller bien au-delà de son domaine de compétence pour formuler une opinion, et affirmer celle-ci avec d’autant plus de force que, justement, notre compétence est plus faible. D’autres ont parlé d’effet de Dunning-Kruger pour désigner un nouveau biais cognitif qui se traduit par une sur-confiance dans ses capacités intellectuelles qui serait d’autant plus forte, là encore, que celles-ci n’auraient pas donné lieu, jusque là, à des preuves notables de leur efficience…
Mais peut-être cette méfiance légitime occulterait à nos yeux d’autres propriétés du sens commun, un caractère plus noble de celui-ci, moins relié aux idéologies et aux dogmes, plus centré sur ce qu’il y a en nous d’expression inévitable d’un ressenti. Il faut essayer de faire crédit à ces thèses, appliquer une sorte de principe de charité à qui vient aujourd’hui devant nous plaider les mérites dudit sens commun, et je veux bien tenter l’expérience, d’autant que j’ai toujours voulu avoir de moi l’image de quelqu’un prêt à se remettre en cause. En somme, essayons de penser que ce « sens commun » est déjà une incarnation de cette recherche d’intelligence collective ou trans-individuelle dont je parlais plus haut.
Isabelle Stengers débute son livre par une citation de Whitehead (extraite de Modes de pensée, un ouvrage qu’il écrivit en 1938 et ne fut traduit en français qu’en 2004) où il est dit que « Socrate passa sa vie à analyser les présuppositions courantes du monde d’Athènes » et « qu’ il reconnut explicitement que sa philosophie était une attitude face à l’ignorance ». Phrase banale, dira-t-on, mais qui étonne la philosophe : pour elle, c’est une surprise. Sans doute s’attendait-elle à mieux. A quoi alors ? Eh bien elle s’attendait à ce que Whitehead ne balaie pas la question en rejetant immédiatement les croyances et fausses assurances des Athéniens dans la simple ignorance. On pourra bien sûr s’étonner : Socrate dialoguait-il vraiment avec le citoyen athénien ordinaire ? Ne le faisait-il pas plutôt avec des citoyens bien particuliers, les sophistes (comme l’étaient Protagoras, Hippias ou Gorgias). Mais Stengers fait comme si les propos que Socrate déconstruit au fil de ses dialogues étaient bel et bien ceux tenus par le tout-venant, le citoyen athénien. Or, dit-elle, « les citoyens athéniens n’étaient pas ignorants. Ils savaient tout ce qu’il y a à savoir »… Ceci est à voir, bien entendu… (il en va souvent ainsi au long des pages de ce livre : affirmer, proclamer, présenter comme des évidences ce qui toujours nécessiterait des preuves, des argumentations. Défaut involontaire ? Non, une attitude revendiquée, fondée sur la conception de la philosophie exposée par Whitehead. Celui-ci ne dit-il pas (paraît-il) que « l’argumentation ou la preuve ne conviennent pas à la philosophie » ! – nous reviendrons sur ce point plus tard -). Mais cela laisse présager de ce que sera « l’argumentation » (car il en faut bien une, ne lui en déplaise!) de Stengers. Un peu comme si le savoir était déjà là, dans le fond, et qu’il n’y avait plus qu’à savoir le ramasser, l’extraire des têtes des gens.
Or, rien n’est moins sûr évidemment. Un point important développé par Stengers / Whitehead est la méfiance envers l’abstraction, une attitude dont il faut avouer qu’elle est très répandue dans la population. Si l’on en venait à promouvoir ce que les deux auteurs appellent « le sens commun » (sans que jamais ils ne le définissent vraiment d’ailleurs) alors sans doute faudrait-il valoriser un autre type de connaissance que celui qui est fondé sur l’abstraction ou, plus précisément, sur les modes d’abstraction, étant entendu que chaque époque aurait le sien (quelque chose comme une épistémé à la Foucault peut-être) et que la tâche de la philosophie serait d’exercer sa vigilance à leur encontre. Tout mode d’abstraction (on pensera ici à la modélisation dont il était question ici il y a deux semaines) laisse de côté une partie de l’expérience, qui n’est jamais prise en compte – du moins est-ce ce que prétendent nos auteurs. Pour Whitehead, « l’argumentation et la preuve ne conviennent pas à la philosophie, car, qu’elles soient scientifiques, juridiques ou autres, toutes deux relèvent d’un mode d’abstraction particulier et doivent leur pouvoir à tout ce que ce mode d’abstraction leur donne le droit d’omettre ». (p. 28).
Y a-t-il vraiment moyen de faire autrement ? La science est la science, avec ses forces et ses faiblesses. Comme dit déjà sur ce blog, Schrödinger autrefois se rendit à l’évidence – et cela avant les psychanalystes lacaniens – que tout ne peut être dit, que la Vérité ne s’énonce pas, car il y a toujours un reste. Et j’ai dit également ici que c’était justement sur ce reste que pouvait s’édifier l’art et la poésie, et que de ce point de vue là, la poésie est connaissance, elle aussi, mais connaissance d’une autre nature, peut-être une connaissance concrète. Alors… faudrait-il lire les suggestions de Whitehead comme un plaidoyer pour la poésie ? Pas vraiment, en réalité. Si « la visée ouverte et affirmée de la philosophie devrait être d’activer les dimensions de l’expérience que nos modes d’abstraction perceptifs et linguistiques omettent », Whitehead n’en déclare pas moins que la qualité poétique des énoncés philosophiques n’est pas nécessaire. On pourra, dit-il, se contenter d’énoncés prosaïques pourvu… « qu’ils aient le pouvoir de faire vaciller la conscience » ! Ainsi, dit-il :
Notre jouissance de l’actualité est la réalisation d’une valeur, bonne ou mauvaise. C’est une expérience de valeur. Son expression fondamentale est : Attention, voici quelque chose qui importe ! Oui, c’est l’expression la meilleure – le premier vacillement de la conscience révèle quelque chose qui importe.
c’est là décrire notre expérience subjective, et qui ne saurait se traduire qu’en poésie. Mais non, il ne faut pas confondre poésie et sens commun. Même si le poète, en l’occurrence Pierre Reverdy, dit que [L]es sentiments [du poète] sont à peu près ceux de tout le monde (Cette émotion appelée poésie)..
La vision de la philosophie du métaphysicien ami de Russell n’assume donc pas d’être « poésie » tout en visant un objectif semblable. Elle serait dans un entre-deux :
Le sens commun, ruminant les aspects de l’existence, les remet entre les mains de la philosophie pour que celle-ci les élucide en leur donnant une compréhension cohérente
c’est dire qu’elle vise une compréhension cohérente. De quoi ? Et en quoi celle-ci peut être possible ? Je tenterai de parler de cela dans mes prochains billets. Que faire de ce « sens commun » si nous n’en faisons pas de la poésie (et surtout – quand même ! – si nous refusons de le rabattre sur les flots d’idiotie qui parcourent le débat médiatique !) ? S’en servir comme point de départ, veut sans doute dire Isabelle Stengers, autrement dit ne jamais faire comme si l’on partait de rien. On dira alors que c’est une vieille rengaine de la pédagogie moderne. Oui, bien sûr les élèves ont déjà des représentations de ce dont on leur parle et il ne faut pas les ignorer. C’est la lubie des maths modernes qui a voulu passer outre, tâchant d’édifier sur des sols vierges une pensée abstraite qui serait juste parce que « logique » : nous retombons dans les pièges de la transparence dénoncés par J-Y. Girard, et là, on peut rejoindre l’ex-co-autrice avec Prigogine d’un livre sur le chaos.
Les sols sur lesquels se déploient les savoirs ne sont jamais vierges, encore faut-il savoir comment tirer partie de cette préexistence de notions. En explorant cette question, on en vient à aborder un continent vague et flou mais qui mérite d’être parcouru, c’est sans doute ce que Whitehead baptisait « sens commun », et qui se rapproche, de fait, d’une sorte de métaphysique. Nous reviendrons sur ces points plus tard. Il faut juste noter pour conclure que se trouve bien situé en perspective ce que déjà nous avons déjà rencontré avec les conventions : « ce dispositif (les conventions citoyennes tirées au sort) rend possible que des gens « ordinaires » a priori « ignorants » se transforment en un groupe devenu capable d’entendre des experts se disputer sans chercher eux-mêmes désespérément « la bonne réponse », « la position légitime », de telle sorte qu’ils en arrivent à formuler des questions, des propositions et des objections dont la pertinence et la lucidité sont susceptibles de faire bégayer les experts. » (p. 71)
On l’aura donc compris, il ne s’agit pas de prendre pour argent comptant la première élucubration venue, de faire foi aux fake news et autres alternative truths, mais d’attirer l’attention sur ce fait énorme et assez évident en quoi consiste aujourd’hui le rejet de la science par une large partie de la population qui n’agit ainsi, dit Stengers, que par « une sombre volonté de ne rien entendre, de prendre leur revanche contre « ceux qui savent » ». Le monde scientifique se serait beaucoup trop éloigné de ce qu’il est convenu d’appeler « le grand public », rejetant celui-ci nécessairement dans l’ignorance, et campant sur des positions d’arrogance à partir desquelles il est devenu trop facile de renvoyer l’interlocuteur « dans ses vingt-deux mètres » comme on dit un peu vulgairement. Par exemple, malgré tout l’immense respect que j’éprouve à l’égard d’Etienne Klein (un remarquable vulgarisateur de la physique), je vois parfois dans ses propos une incompréhension abyssale dont je ne sais si elle est involontaire ou calculée, à l’égard de certains philosophes exprimant ce qu’on appelle une « pensée critique »… Les physiciens devraient avoir compris que, décidément, non, leurs vérités ne sont pas définitives, même si elles ont souvent un lieu stable d’exercice (mais stable pour combien de temps?). L’exemple de la gravité, souvent invoqué, satisfait il est vrai… le sens commun (!), il est certain que si nous sautons par la fenêtre, nous allons nous faire mal, mais qu’est-ce que la gravité ? Quand Newton l’introduisit comme force, cela fut à l’origine d’un âpre débat avec les cartésiens qui ne voulaient pas entendre parler de ce genre de notion quelque peu « mystique ». Einstein l’a caractérisée comme effet d’une géométrie de l’espace… aujourd’hui certains sont prêts à douter qu’elle existe (voir encore ici la vidéo de la conférence de D. Elbaz). J’ai entendu Klein, dans un interview, se moquer d’une « philosophe de la Sorbonne » et sous-entendre qu’elle était d’une ignorance crasse (et vous vous rendez compte, payée par nos impôts!) parce qu’elle avait eu l’audace de soulever ce genre de question dans une émission de France-Culture où elle débattait avec lui et avec le sociologue Gérald Bronner. Après vérification, il s’agissait de Bernadette Bensaude-Vincent que je connais un petit peu (elle était la présidente de la commission du CNU dans laquelle je siégeais au début des années deux mille), laquelle est loin d’être une idiote… mais ainsi va le débat public, avec souvent plus de postures que d’intentions de débattre… avec de vrais arguments.
Changer le web… ou bien revenir au début ? Si l’on se base sur ce que nous avons vu dans les deux précédents billets, on conçoit qu’il ne soit nullement envisagé de « revenir en arrière », d’ignorer une technologie dont des avantages ont pu être constatés… Dans l’optique d’Ars Industrialis (ancien nom du collectif fondé par Stiegler), une technologie est un pharmakon, autrement dit peut aussi bien être poison (si mal employée) ou remède. Dans l’état actuel des choses, l’Internet donne lieu à des applications toxiques. Autrement dit la technologie est mal employée. Daniel Ross, dans le chapitre 10, en trace un tableau éloquent. L’emploi du mot grec pharmakon, me dit-on, trouve son origine chez Derrida, c’est ce dernier qui aurait d’ailleurs introduit Stiegler dans le monde intellectuel. Cela n’a qu’un intérêt anecdotique et pourtant certains de mes dialoguants (sur FB) y tiennent… En fouillant un peu les ragots répandus sur la toile, on constatera que Stiegler est très attaqué : certains lui reprochent son jargon, ses néologismes parfois construits sur des exportations de termes hors de leur domaine d’origine. Je trouve surtout qu’il écrit affreusement mal… pour certains, cela peut paraître un crime, ce que je comprends, mais moi, je n’en fais pas un crime. Je note aussi que les mots d’entropie, de néguentropie etc. qui sont certes repris au langage de la physique (de la thermodynamique plus exactement) ont été employés avant Stiegler par des scientifiques évoqués la fois dernière : Alfred Lotka et Wassili Vernadsky. Ils ne me semblent pas être hors de propos dans le contexte écologique. Je ne suis pas un « fan » de Stiegler, que je n’ai abordé sérieusement qu’à partir du livre collectif qui vient de paraître (« Bifurquer »). Dans ce livre, comme je l’ai déjà dit, interviennent d’autres personnalités, comme Giuseppe Longo, Daniel Ross et Alain Supiot. Une lettre est publiée en exergue, qui émane de Jean-Marie Le Clézio. Il est vrai que cette lettre ne dit pas grand-chose en rapport avec le contenu des chapitres de ce livre. Néanmoins, Le Clézio n’aurait pas ainsi donné une caution s’il avait eu quelque doute sur le sérieux de l’entreprise. Certains chapitres parlent d’une expérience d’économie contributive effectuée en Seine Saint-Denis, sur le territoire de Plaine Commune. Il ne me semble pas possible d’évaluer le sérieux de cette expérience, présentée de façon assez nébuleuse et sans données précises… c’est peut-être une arnaque.
De la plus-value aux réseaux sociaux
Pour expliquer le rôle pris par les réseaux sociaux en tant qu’organes exosomatiques dans notre société contemporaine, Daniel Ross part d’une thèse dont je sais qu’elle est aujourd’hui contestée (surtout par des philosophes que je qualifierai de « néo-libéraux ») à savoir la baisse tendancielle du taux de profit, « découverte » par Marx, parfois rapprochée justement de la notion d’entropie (cf. Mark Alizart, dans son livre « cryptocommunisme » commenté ici) et en laquelle le philosophe barbu voyait une contradiction fondamentale du capitalisme. Si l’on accepte les prémisses marxistes(*), c’est-à-dire la manière dont le capitalisme produit de la valeur en extorquant un surtravail à ceux qui produisent, ce que l’on appelle la plus-value, il arrive toujours un moment où le taux de plus-value baisse (les producteurs demandent à être mieux payés, la valeur objective de la marchandise baisse parce que les consommateurs ont fait le plein, n’en veulent plus, ou bien aussi les prix baissent à cause de la concurrence), il faut alors compenser par quelque chose. Ce quelque chose a été vu sous l’aspect du colonialisme (manière de trouver une main d’oeuvre et des matières premières meilleur marché), de l’impérialisme (suite du précédent), de la globalisation (on l’a vu particulièrement avec la délocalisation durant ces dernières décennies, dont on paierait paraît-il le prix aujourd’hui…), mais il a pu aussi être vu sous l’aspect des pressions exercées sur les consommateurs : publicité et marketing, rôle des médias (télévision) pour accentuer l’efficacité de la publicité (les fameux espaces libres dégagés dans nos têtes par la télé pour mieux y fourguer les produits à vendre…) etc. Un pas a été franchi avec les réseaux sociaux du genre Facebook ou Instagram qui, non seulement, diffusent de la publicité mais en plus ingurgitent nos données personnelles pour les traiter immédiatement en escomptant, par ce fait même, manipuler nos désirs, nos tendances voire même nos opinions politiques. Ross, Stiegler et al. insistent sur l’extrême rapidité des processus en jeu, une sorte de communication / manipulation en temps réel (et même disent-ils, pour choquer l’imagination, à la vitesse de la lumière, voire plus si possible (!) cela pour insinuer que nos envies et désirs seraient déterminées à notre insu avant même que nous n’en ayons conscience – sûrement ici, se sont-ils fait influencer par les expériences de Libet). Cela n’est pas très nouveau… mais ce n’est pas une raison pour l’ignorer. Là où les choses se compliquent, c’est lorsqu’il faudrait dire comment intervenir pour qu’il en soit autrement. Des arguments existent en faveur du capitalisme qui, à l’instar de la démocratie serait… le pire système à l’exclusion de tous les autres ! Après les multiples tentatives d’instauration d’autres systèmes économiques (« communistes » par exemple) qui se sont toutes soldées par des échecs, on voit mal comment on pourrait passer à autre chose…
Et pourtant… les ressources s’épuisent, le risque de catastrophe est grandissant.
Prendre en compte l’entropie
Pour Stiegler et al., cette contradiction réside dans le fait que jusqu’à présent, nous avons toujours pensé l’économie dans un cadre « newtonien », c’est-à-dire cette abstraction d’un espace infini, sans histoire et sans « frottements » qui devrait nous permettre d’attendre avec quiétude l’édification d’un équilibre durable (je me souviens avoir un jour entendu Longo, intervenant dans un séminaire LIGC à Carry-le-Rouet, montrer que toute recherche d’équilibre était un mythe). Or, la thermodynamique nous a enseigné autre chose et nous savons que même l’univers a une histoire. D’où le fait d’en appeler à une nouvelle économie prenant très au sérieux la notion d’entropie.
Les thèses de Stiegler et al. ne sont pas « anti-capitalistes », elles essaient seulement de (re)mettre sur les rails un système qui semble de plus en plus déjanté. De ce point de vue, on pourra les mettre en relation avec celles d’un Stiglitz. Partir du concept d’entropie pour cela ne semble pas absurde : cela permet de mettre l’accent sur un aspect négligé qui n’est pas en lui-même contradictoire avec le capitalisme, bien au contraire, puisqu’il consiste dans le fait, déjà signalé par Lotka et d’autres, que l’humain est capable d’une pensée, est le siège d’une conscience (voir aussi sur ce sujet les balles analyses de Francis Wolff, commentées ici) qui, si on leur en laissait la liberté, pourraient créer de l’information, dont on sait qu’elle est justement le contraire de l’entropie.
Longo et ses associés s’attachent à distinguer fort justement l’intelligence « vivante », celle que l’on trouve dans les espèces vivantes jusqu’à l’être humain bien entendu, et l’intelligence non vivante, celle qui se trouve liée aux dérivés du silicium (pour ne pas employer le mot « d’intelligence artificielle »). La première est basée sur une faculté que nous ne devrions pas oublier : l’attention, laquelle est dépendante de la conscience. Les ordinateurs n’ont pas ce problème, dès qu’on les branche, ils sont « attentifs » : autrement dit, ils utilisent immédiatement toutes leurs ressources pour résoudre les problèmes qu’on leur pose. Mais je ne sais pas vous, mais moi, dès que je me repose un peu, mon esprit divague, je ne saurais prédire l’état dans lequel il sera à l’issue des dix secondes à venir… autrement dit mon cerveau est instable, il n’est pas plus « résoluble » comme système que ne l’est le problème des trois corps mis en avant par Poincaré. Cette instabilité n’est peut-être pas une faiblesse mais une force. En tout cas, on est absolument incapable de la réaliser dans un système artificiel… C’est de cette instabilité que viennent probablement la rêverie, l’art et la poésie qui sont des composantes indissociables de notre esprit. C’est là que notre métabolisme échappe au mécanicisme.
Poincaré et le problème des N corps
Une autre informatique?
Quant au web, aux réseaux sociaux et tout ce qui en dérive, relevons ce passage du chapitre premier :
Dans le contexte contemporain, où l’exosomatisation, devenue de part en part technologique (et non seulement technique), est désormais pilotée par le marketing, il ne suffit pas qu’une technologie ait trouvé son marché pour qu’elle puisse être considérée comme bénéfique. Il est également nécessaire de trouver les modalités positives dont cette technologie est réellement porteuse, et les pratiques et prescriptions sociales qui sauront limiter sa toxicité, que l’on appellera son anthropie, et intensifier sa curativité, que l’on appellera sa néguanthropie.
On pourrait bien sûr se demander comment y parvenir, quelle volonté serait assez forte pour détourner l’évolution des technologies vers autre chose que ce qu’elles sont aujourd’hui devenues : « une exploitation systémiquement addictive des circuits dopaminergiques de la récompense » (!) (p.50). Les réponses apportées au chapitre 7 (« design contributif et technologies numériques ») sont, avouons-le, assez faibles. Ici apparaît l’idée juste selon laquelle, au début de cette ère que nous vivons, traversée par le numérique, on se demandait encore s’il fallait ou non tout miser sur l’automatisation. Je me souviens que, sur le problème de la traduction automatique, par exemple, devant les immenses difficultés qui ne cessaient pas d’apparaître (tant que l’on continuait à s’en remettre au savoir linguistique et qu’on n’avait pas encore trouvé l’échappatoire permis par le Big Data et le Deep Learning), certaines voix raisonnables émettaient l’idée que l’on ne devait pas viser une traduction entièrement automatisée, mais plutôt une aide efficace à la traduction : le traducteur humain se mettait à la tâche et lorsqu’il butait sur une difficulté (mot inconnu par exemple) il pouvait ouvrir une petite fenêtre sur son écran qui lui indiquait plusieurs solutions possibles. Les propositions faites dans ce chapitre 7 vont dans cette direction (logiciels d’aide à la prise de notes, d’annotation…) et c’est pour cela qu’au début de ce texte je formulais ma question sous la forme « changer le web ou bien revenir au début? », mais elles ne sont guère attractives, du moins de la façon dont elles sont présentées. Ailleurs apparaît la vraie question, qui réside dans une évolution de l’informatique qui rende envisageable un retour vers cette orientation et qui soit véritablement convaincante. Cela repose sur une sorte de révolution dans notre conception du jouet informatique.
Vers une intelligence trans-individuelle
Ici, vous voyez pointer le bout de mon nez et le lien que j’aimerais établir avec mes billets précédents sur la logique. Ces billets n’avaient pas que pour but de proposer de résoudre autrement la question des fondements des lois logiques, mais compte tenu du lien entre logique et informatique théorique, ils concernaient aussi cette dernière discipline. Ce que Girard a mis en lumière très tôt dans ses travaux de logique linéaire, puis de ludique, puis de géométrie de l’interaction et maintenant de syntaxe transcendantale, c’est que la problématique de l’interaction (démarrant avec le simple couple question – réponse) était à la source de la logique et donc de l’informatique théorique.
J’ai déjà parlé abondamment de la ludique, une approche qualifiée de « pré-logique » qui se basait à la fois sur la théorie de la preuve et sur la théorie des jeux. Dans les années 10 de notre siècle, un groupe de recherche que je coordonnais a tenté de mettre en application ses principes dans les domaines qui nous intéressent et qui vont de la théorisation du langage aux comportements sociaux et à l’éthique. Vaste entreprise qui est restée inachevée et dont j’aimerais tant qu’elle soit reprise un jour peut-être par une nouvelle génération de chercheurs… L’un des buts (non atteint) était justement l’édification d’outils d’authentique dialogue ou d’aide au dialogue. Il est assez évident pour tout un chacun que rares sont les discussions et conversations menées à leur terme, soit par flemme, soit par incompétence et ignorance. Il est également évident que notre intelligence, en tant que système individuel, se heurte à des limites : limites du savoir disponible pour une seule personne, limite dans la maîtrise du raisonnement à longue distance (quand une conclusion découle de prémisses après une très logue chaîne d’inférences). Ces limites peuvent être repoussées par une mise en coopération contributive des « agents » (remarquer qu’en utilisant la notion d’agent je m’autorise à m’éloigner quelque peu de celle « d’individu », beaucoup trop centrée et fermée à l’intérieur d’une enveloppe corporelle).
On pourrait envisager des outils qui relancent le débat et éclairent les questions abordées sous des aspects que peut-être ignorent les participants. Ce serait alors ouvrir des voies nouvelles à l’intelligence… On questionnerait un réseau de systèmes qui, non seulement pourrait nous renvoyer des réponses (comme le fait un vulgaire Google) mais en plus nous renverrait d’autres questions, construirait des hypothèses à partir des interactions ayant déjà eu lieu etc. permettant aux utilisateurs de se faire leurs propres idées et de nourrir les débats avec d’autres participants. Et en plus, ceci serait en temps réel, autrement dit ne considérerait pas le « savoir » comme figé à un instant donné (sur le mode d’une encyclopédie), mais comme un système en déséquilibre constant qui évoluerait sans cesse en fonction des interactions concrètes ayant lieu avec d’autres participants.
La Convention Citoyenne sur le Climat, première tentative moderne de dégager un ensemble de propositions à partir de la mise en oeuvre d’une intelligence collective.
Une des innovations sociales récentes qui a été à mes yeux un acquis à porter au crédit de notre actuel président a été la mise en place de la Convention Citoyenne sur le Climat. Beaucoup a été dit à ce sujet et il est inutile de revenir en détails sur la démarche. Rappelons simplement qu’une telle commission n’apporte des conclusions efficaces que si ses membres sont abondamment informés. Un grand pas a été accompli sans aide technologique particulière (un défilé d’experts humains, mais cela n’ouvrait-il pas la porte à des contestations, comment ces experts étaient-ils choisis ? Quelle assurance avait-on quant à leurs compétences, leur neutralité etc.?). L’outil technologique pourrait ici être utilisé dans le sens « néguanthropique » souligné par Stiegler. Il suffit que cet outil agisse par enregistrement de multiples dialogues, ensuite emmagasinés et prêts à se déclencher en face de toutes les questions posées puis de synthétiser les interactions sous la forme de réseaux d’idées obtenues après normalisation… Nous n’en sommes pas là. Pas encore là. Un jour viendra peut-être… ce jour-là, nous aurons franchi un grand bond dans l’intelligence, et ce ne sera peut-être que par un tel bond que pourront être résolues les questions qui nous assaillent aujourd’hui comme le réchauffement climatique ou la difficulté de l’accès à l’énergie disponible. C’est dire en somme que nous avons bien plus besoin de cette mise en coopération contributive que d’hypothétiques robots ouvrant la voie à un transhumanisme mortifère.
(*) je sais que certains les contestent, ils disent par exemple que Marx s’est trompé sur l’origine de la valeur, que ce n’est pas « le travail » parce que, disent-ils, on n’a jamais vu quelqu’un acheter « une quantité de travail » lorsqu’il acquiert une marchandise. Certes, la quantité de travail est dissimulée, refoulée et même forclose lorsque nous achetons un produit qui correspond à nos désirs, mais il n’empêche qu’elle est toujours là, que la force de travail nécessaire à produire a un coût, et que l’entrepreneur cherche à réduire ce coût. De quelque manière que l’on tourne la question, la force productive est présente.
Alfred James Lotka, né en Pologne en 1880 et mort à New York en 1949, est connu surtout par ses travaux en dynamique des populations et les équations qu’il formula avec son collègue Volterra, mais on le présente aussi comme fondateur d’une nouvelle discipline: la biologie physique dont il expose les principes dès 1925 dans son essai Elements of Physical Biology (réimprimé en 1956 sous le titre Elements of Mathematical Biology). Comme il est dit sur Wikipedia, «Lotka y annonce une nouvelle discipline scientifique : la biologie physique, dont l’objet est la transposition des lois de la Physique aux systèmes biologiques. Il fonde son approche sur l’hypothèse selon laquelle les transformations cellulaires peuvent être interprétées comme des conversions d’énergie, et peuvent à ce titre être analysées par les lois de la thermodynamique. Dans cette représentation du monde, le minéral comme le vivant ne sont que les composants d’un système global de dégradation de l’énergie. Cette thèse lui valut une reconnaissance posthume aussi bien des théoriciens des systèmes comme Ludwig von Bertalanffy que des écologistes des années 1960 et 1970 ».
Alfred Lotka
Wassili Vernadsky (1863 – 1945), de son côté, était plutôt chimiste et géologue de formation mais s’est illustré par des recherches aux confins de ces disciplines et de la biologie, c’est donc la biochimie qu’il a inventée et même la biogéochimie, faisant de la vie même une force géologique, d’où son concept de biosphère, rajoutant ainsi une couche à la lithosphère et à l’atmosphère qui forment les entités en interaction dans et autour de notre planète. Il eut même cette idée de compléter ces couches par d’autres : technosphère (pour tout ce qui résulte de l’activité humaine) et noosphère englobant la pensée. On dit aussi sur Wikipedia que Vernadsky a identifié le facteurnéguentropique découvert dans la nature, et repris le terme de noosphère « dans sa forme non-théologique ». On comprend donc particulièrement l’intérêt que l’on peut porter aujourd’hui à tous ces travaux qui fondent l’écologie scientifique moderne.
Wassily Vernadsky
Produire de l’anti-anthropie
Le mathématicien, physicien et biologiste Giuseppe Longo, co-auteur, avec tout un collectif (dont Maël Montévil, avec qui il a déjà écrit de nombreux articles), de « Bifurquer » (cf. mon billet précédent) s’inscrit dans cette lignée en y ajoutant ce que la science d’après 1945 a introduit de nouveau : la logique et l’informatique, mais aussi les disciplines qui se sont développées dans leur sillage : linguistique, psychologie cognitive… et bien sûr ce que l’on a coutume d’appeler l’intelligence artificielle. Ce qui m’intéresse est son approche non seulement critique mais en rupture par rapport à la tradition de ces disciplines. Les recherches conduites depuis l’apparition des sciences cognitives se sont majoritairement axées sur une conception de l’intelligence comme traitement de l’information, celle-ci se trouvant plus ou moins bien définie à partir des travaux de Shannon et de Kolmogorov, qui établirent le lien de l’information avec la théorie des probabilités, bien que l’on ait peu d’assurance sur le fait qu’un événement moins probable contiendrait en lui-même davantage d’information qu’un événement plus probable (selon ces théories, il y aurait autant d’information dans une suite de symboles produits au hasard que dans une pièce de Shakespeare de même longueur!). Cette conception implique une sorte de transformation mécanique d’un input capté par les sens en une représentation apte au calcul. Nous sommes en plein mécanicisme autrement dit dans une perspective qui ne fait au mieux que maintenir le degré d’entropie, et en aucun cas le diminuer.
Giuseppe Longo
Pour produire de l’anti-entropie, il faut bien plus : ce que j’oserai appeler créativité (bien que les auteurs n’emploient pas ce mot). Pour être plus précis et pour aller plus loin sans doute que la seule aptitude connue sous ce nom (et que Chomsky a déjà abondamment mise à contribution quand il parle de la créativité du langage pour, en réalité, signifier seulement l’infini potentiel contenu dans toute grammaire), ils font tout simplement appel à la notion de travail. Oui, il faut fournir un gros travail pour remonter le cours de l’entropie – anthropie !
Produire de l’anti-anthropie, c’est d’abord produire de la nouveauté, mais pas au sens de ce que les agents de marketing appellent « l’innovation », dans un sens tout autre, qui renvoie à ce qu’en aucune manière on aurait pu prédire :
Le concept d’anti-entropie vise à rendre compte des organisations biologiques dans leur historicité. Les formes de vie actuelles se maintiennent à la fois par l’activation de nouveautés fonctionnelles apparues dans le passé (anti-entropie) et par la production de nouveautés fonctionnelles (production d’anti-entropie) issues de l’individu ou du groupe (population, écosystème etc.). Non seulement ces nouveautés sont imprévisibles, mais leur nature elle-même ne peut être prédite. Cela a pour conséquence que la théorie des probabilités est insuffisante pour décrire le vivant et son évolution. (p. 74) (c’est moi qui souligne)
Ces « nouveautés » sont bien sûr à trouver aujourd’hui principalement dans la part exosomatique de la vie, autrement dit dans les savoirs et les techniques, et dès qu’une telle nouveauté apparaît, il va de soi qu’elle est un pharmakon (comme dit dans le billet précédent) c’est-à-dire une sorte de « remède » dont le risque de toxicité est loin d’être nul (puisque nous en avons tant de fois fait l’expérience au cours des décennies passées, avec l’évolution des télécommunications puis de l’informatique, l’apparition de l’Internet, des smartphones et des réseaux sociaux), d’où :
Pour qu’une nouveauté exosomatique puisse devenir bénéfique, et limite sa toxicité, un surcroît de travail est toujours nécessaire, en toute époque de l’évolution anthropologique. Seul le travail ainsi entendu permet d’identifier les nouveautés exosomatiques réellement requise par et compatibles avec un avenir souhaitable pour une localité – cette localité fût-elle la biosphère elle-même et en totalité. Ce travail est celui de la noesis, c’est-à-dire de la pensée, sous toutes ses formes, et comme savoirs pratiques aussi bien que théoriques, familiaux, artisanaux, sportifs ou artistiques aussi bien que théoriques, juridiques et spirituels au sens large. Il relève de ce que nous nommons en conséquence la noodiversité et la noodiversification.
Ce thème, omniprésent dans l’ouvrage, va permettre de développer considérablement l’opposition entre travail et emploi (l’emploi étant, au contraire du travail, une forme de séparation du savoir par rapport au sujet, ce que Stiegler rapproche de la forme salariat introduite par Marx, et donc de la prolétarisation). Le travail seul est producteur de sens (à condition qu’en fassent partie toutes les contributions qu’apportent les agents même lorsqu’elles ne sont pas rémunérées, comme l’éducation des enfants).
Longo, Stiegler, Montévil et al. envisagent donc et la technologie et la science, et notamment l’informatique et ses applications, sous un jour totalement différent de celui que nous avons vu dominer nos recherches dans les dernières décennies, et qui a, il faut bien le dire, réduit considérablement nos potentialités noïétiques puisque s’orientant principalement vers l’automatisation des procédures (traduction automatique etc.) et la préparation de packages (statistiques par exemple) pour « faciliter » les recherches… Une telle remise en cause peut aller loin, jusqu’aux fondements mêmes parfois de notre savoir contemporain (notamment en ce qui concerne la mathématisation et la notion afférente de modèle).
La modélisation et l’IA dans le courant entropique.
La mathématisation marque à n’en pas douter un pas utile dans la progression vers la scientificité d’une approche relative à un domaine donné. Un modèle mathématique a souvent été comparé à un modèle physique voire à un modèle réduit d’un phénomène décrit. Si le modèle correspond bien à la réalité, on pourra effectuer calculs et raisonnements qui permettront de prévoir et de décider en connaissance de cause. Il est possible de prévoir l’évolution d’un phénomène en s’en remettant aux équations qui le régissent. Cela est d’autant plus vrai que la réalité est simple (« non-complexe » comme on dit aujourd’hui). On a souvent pris pour exemple les calculs de trajectoire en balistique où une fonction mathématique (parabolique) décrit le phénomène en fonction d’une impulsion initiale et de la connaissance de la loi de la gravité.
Les modèles reposent en général sur de grandes hypothèses comme la linéarité, la polynômialité ou le caractère constant de certaines fonctions : la gravité est ainsi supposée être une force constante s’appliquant de la même manière en tout lieu de l’univers. Ces hypothèses définissent un cadre qui permet de formaliser et prévoir tout ce qui s’inscrit en lui, mais il va de soi que des phénomènes imprévus échappent aux modèles car ces hypothèses ne les ont jamais intégrés. Les modèles économiques ne peuvent ainsi prévoir les crises comme celle de 2008, et les modèles épidémiologiques restent très hasardeux tant qu’on n’a pas acquis une connaissance précise du virus nouvellement apparu : on l’a bien vu avec la covid-19. La mathématisation conduit ainsi à prévoir un monde sans risque et sans nouveauté radicale, ce qui est exactement le contraire d’un monde vivant, c’est-à-dire d’un monde échappant au deuxième principe de la thermodynamique.
Pour approcher une réalité vivante, il faudrait réduire considérablement notre propension à généraliser et à considérer les lois d’un modèle (même peut-être les lois de la physique) comme universellement applicables, il faudrait aussi probablement rejeter les hypothèses trop simples. Mais alors dira-t-on, on ne trouvera plus de mathématiques assez subtiles pour cela, ou alors des théories d’une complexité telle que notre entendement s’en trouverait dépassé. D’où alors, cette terrible conséquence à laquelle nous aboutissons : le réel ne nous serait peut-être atteignable qu’au travers d’un filtre constitué de mathématiques trop simples, raison pour laquelle il nous échapperait en très grande partie. Henri Poincaré écrivait dans L’avenir des mathématiques que « dans la plupart des problèmes de Physique mathématique, les équations à intégrer sont linéaires ; elles servent à déterminer des fonctions inconnues de plusieurs variables et ces fonctions sont continues. Pourquoi ? Parce que nous avons écrit les équations en regardant la matière comme continue. Mais la matière n’est pas continue : elle est formée d’atomes, et, si nous avions voulu écrire les équations comme l’aurait fait un observateur de vue assez perçante pour voir les atomes, nous n’aurions pas eu un petit nombre d’équations différentielles servant à déterminer certaines fonctions inconnues, nous aurions eu un grand nombre d’équations algébriques servant à déterminer un grand nombre de constantes inconnues. » mais peut-être pouvons-nous penser aussi que s’il en est ainsi c’est parce que les modèles continus sont mieux connus, plus faciles à utiliser. Quitte à appauvrir le réel et à le réduire à une « machine » aux comportements prévisibles… autrement dit qui maximisent l’entropie. La modélisation, en ce cas, ne rendrait jamais compte de la néguanthropie…
Henri Poincaré
Quant aux sciences humaines, le pouvoir de la mathématisation dans leur champ demeure des plus limités, et là où il s’applique, on peut vraiment trouver l’illustration des craintes exprimées par Giuseppe Longo au sujet d’un réductionnisme annihilant l’effet néguanthropique de la pensée.
J’ai beaucoup travaillé sur la mathématisation dans les sciences du langage et j’ai parfois été convaincu de ce qu’elle apportait comme savoir sur les structures profondes de la langue. Comprendre par exemple le rôle et la fonction des items de polarité négative (ou positive) dans la syntaxe des phrases d’une langue (pourquoi on dit « si tu viens jamais par chez moi » pour signifier « une fois » et pas « jamais » par exemple!) n’est pas simple. Une modélisation logico-mathématique y peut aider. De même pour les phénomènes de coréférence des pronoms (pourquoi dans « le fils de la concierge la nomme familièrement « mummy» », le deuxième « la » peut référer à la concierge, mais pas dans la phrase plus simple « la concierge la nomme familièrement « mummy » »). Mais on franchit une étape de trop lorsqu’on prétend réduire le langage à ce que peut exprimer un fragment de logique du second ordre mixé avec du lambda-calcul (ce qui était, en gros, le projet du philosophe américain Richard Montague), prétendant ainsi ouvrir la voie à une conception universaliste de la traduction entre langues.
Alan Turing
L’intelligence artificielle résulte d’une confusion : ne sachant pas définir ce que l’on entend par « intelligence », on a résolu (comme on le fait souvent en de tels cas) d’isoler de cette réalité quelques traits permettant de l’opérationnaliser. Et on qualifiera d’intelligent tout système qui satisfait ces traits. Peut-être la responsabilité de cette faute revient-elle à Turing qui fut le premier à lancer un défit aux fabricants de machines au moyen du fameux test qui porte son nom, reposant sur une situation de conversation entre un homme et une femme, cachés l’un à l’autre, ne communiquant que par écran interposé, avec un « juge » essayant de deviner qui est l’homme et qui est la femme, une machine étant considérée comme « intelligente » à la condition que si on la substitue à l’homme dans le dialogue, le juge la prendra pour l’homme (On s’interroge depuis longtemps sur les raisons qui ont poussé Turing à instaurer le dit dialogue entre deux partenaires de sexe différents. Dans la version initiale du jeu, l’homme est même supposé aider le juge, et la femme au contraire supposée le conduire à l’erreur… ce qui relève sans doute d’une bonne dose de sexisme chez ce cher Alan). On voit ici qu’il n’est pas question à proprement parler « d’intelligence » mais simplement d’un certain nombre de conventions sociales qui aident, dans une situation donnée, à déterminer qui est un homme et qui est une femme. Aspect très réduit de l’intelligence, sorte d’échantillon en quelque sorte qui ne ferait qu’en exprimer des caractéristiques très superficielles. Ou bien succédané d’intelligence… un peu comme le Canada Dry dont on sait qu’il ressemble à l’alcool mais n’est pas de l’alcool… Ce n’est pas cette intelligence-là en tout cas qui remplit la noosphère… et c’est bien ce qui nous préoccupe. Sur les ordinateurs, Longo et al. écrivent :
Avec l’augmentation de leur vitesse et la croissance des bases de données, la capacité des ordinateurs à traiter les informations et à effectuer des catégorisations augmente considérablement. Cependant, les tâches qu’ils peuvent effectuer ne sont pas équivalentes aux nouveautés produites par le travail humain. Ce travail produit du sens qui n’est ni dans les données initiales ni dans leurs combinaisons par des méthodes algorithmiques.
En fin de compte… l’Internet et l’Intelligence seraient à réinventer… comme eût dit Rimbaud à propos de l’amour.
« Bifurquer », sous la direction de Bernard Stiegler (avec le collectif Internation), est un livre plutôt difficile à lire. Comme souvent dans le cas d’écrits théoriques, les auteurs se croient obligés d’employer une langue lourde où les nominalisations occupent le devant de la scène et où les phrases avec relatives et subordonnées abondent, donnant l’impression d’expressions figées contraignant le lecteur à les reprendre du début afin de pouvoir en tirer la signification essentielle… est-ce cela qui fait sérieux ? scientifique ? N’y aurait-il pas une autre manière de dire, avec des phrases plus courtes et davantage d’élan… les auteurs d’écrits théoriques devraient s’inspirer parfois de la poésie…
Il faut donc de la patience pour arriver à décortiquer une pensée qui, déjà, en elle-même, n’est pas simple. Mais si l’on produit cet effort, alors on est gratifié d’une compréhension de phénomènes auxquels souvent nous ne savons pas donner de nom. L’œuvre de Stiegler est complexe, on le sait. Elle ne se limite pas à fournir « une opinion », à décrire une tendance qui serait toujours plus catastrophiste ou à s’indigner d’une politique désastreuse, elle construit lentement mais sûrement un arsenal de concepts explicatifs qui s’enchaînent les uns avec les autres pour donner une théorie d’ensemble dont nous manquons cruellement depuis Marx et Freud. Le concept central de ce recueil de contributions est celui d’entropie, dont tout le monde connaît la nature physique, qui va de pair avec l’énoncé du deuxième principe de la thermodynamique selon lequel l’entropie d’un système isolé est croissante. Cournot, Brillouin, Costa de Beauregard (Le Second Principe de la science du temps, entropie, information, irréversibilité, éditions du Seuil, 1963) l’ont exploré et l’ont relié à la flèche du temps, ainsi qu’à la notion d’information. Une barre métallique chauffée à une extrémité mais pas à l’autre possède une quantité d’information (permettant de distinguer les deux extrémités par exemple), en même temps qu’un certain degré d’entropie (autrement dit une certaine dose d’organisation), au fil du temps, la température va s’uniformiser, ce qui va conduire à une indifférenciation des deux extrémités (perte d’information) et à une évolution vers moins d’organisation et donc plus de chaos (hausse de l’entropie). La hausse de l’entropie qui est une progression vers le désordre est en même temps une perte d’information, d’où le fait que l’information soit, depuis Brillouin, qualifiée de néguentropie.
Les systèmes non isolés peuvent échapper à cette tendance inexorable, c’est le cas de la vie sur Terre, où l’entropie est contre-carrée par le rayonnement solaire. Déjà Schrödinger, dans Qu’est-ce que la vie ? en 1944, mettait le doigt sur le fait que « lutter contre l’entropie, c’est ce que fait le vivant », et c’est là qu’il parlait d’entropie négative. Mais l’humain, en tant que vivant d’une espèce un peu particulière, qui possède en particulier son entrée dans la noosphère (c’est-à-dire le monde des idées, du langage et des pensées) en ajoute une couche, si on ose l’expression. Les organes dont il est doté ne sont pas seulement endosomatiques (liés au développement de son propre corps), mais aussi exosomatiques : ce qui sort de lui et s’érige comme outils – du levier à l’ordinateur – productions, écrits, textes qui finissent comme des entités stables au moins pour un temps, situées en dehors de lui et ayant leur autonomie et développement propres. Ces productions, que Stiegler qualifie parfois de pharmaka, ont une double face, l’une pouvant contribuer à davantage d’organisation et de savoir (en ce cas ils contribuent à augmenter la néguentropie) et l’autre au contraire pointant vers plus d’entropie, ou anthropie (l’anthropie étant le part spécifiquement humaine de l’entropie) : ils ajoutent au désordre, on peut ici penser à l’usage abusif de l’automobile engendrant pollution et conditions d’encombrement qui finissent par ruiner les conditions d’un emploi néguentropique. Elles occupent donc une place majeure, au point que l’ère qui les voit dominer à ce point a mérité d’être qualifiée d’anthropocène (terme utilisé par le météorologue et chimiste de l’atmosphère Paul Josef Crutzen à la fin des années quatre-vingt-dix).
Erwin Schrödinger
L’anthropocène serait donc cette ère géologique où l’entropie a commencé à être de l’anthropie. De même que la vie s’édifiait en luttant contre l’entropie, il faut qu’à l’anthropocène, quelque chose lutte contre l’anthropie, évidemment on peut s’en douter c’est la noèse, autrement dit la pensée, le savoir, les idées.
Les signes de la croissance d’entropie au niveau global de la vie sur Terre sont nombreux, ils comportent notamment la réduction de la diversité biologique, dont les effets de désordre sont souvent relevés : la crise du Covid-19 ainsi que d’autres épidémies à venir, liées à des passages de virus d’une espèce animale à l’homme, en sont des exemples. La réduction de cette diversité réduit le nombre d’espèces vers où un virus peut migrer, augmentant la probabilité du passage vers l’humain. La globalisation est donc entendue comme manifestation d’entropie. Ce qui entraînera la nécessité de se concentrer sur le local.
Si l’entropie réduit le vivant (et notamment la biodiversité), l’anthropie réduit la pensée, le symbolique, et particulièrement ce que l’on peut appeler en analogie avec la biodiversité : la noodiversité, c’est-à-dire la diversité des points de vue, des idées, des langues (et à l’intérieur de chaque langue elle se traduit par un appauvrissement de celle-ci, un article récent encore signalait à quel point se réduisaient à vue d’œil les compétences linguistiques des êtres parlants, restreignant par exemple la gamme des temps verbaux disponibles – qui utilise encore le passé simple ou le subjonctif en français ? – l’éducation telle qu’elle est dispensée y étant évidemment pour quelque chose, appauvrissement qui ne peut conduire qu’à celui de la pensée, le sujet perdant à la fois l’habitude et la capacité d’approfondir ce qu’il pense et la nuance sous laquelle il lui faudrait l’exprimer).
Comment empêcher l’entropie de croître ? Si cela est impossible pour le système global isolé (notre univers cosmologique par exemple), on peut par contre penser que cela est possible aux divers niveaux de localité qui nous concernent, nous humains. On sait en effet que des systèmes locaux peuvent échapper au principe, même si, globalement, l’entropie continue de croître. On trouvera ici la raison de fond pour laquelle Stiegler et al. mettent l’accent sur la localité (mais une localité extensive, par emboîtements successifs pouvant atteindre la biosphère).
J’ai, dans un article précédent concernant la logique (la logique de la logique – III), mis l’accent déjà sur la « locativité », concept légèrement distinct de celui de localité en ce qu’il porte sur le caractère locatif (inscrit dans un lieu) d’une idée ou d’une parole, alors que « localité » renvoie simplement à une opposition au « global » ; on voit néanmoins la proximité des deux notions. Le local naît d’un lieu. Seulement il ne doit pas y demeurer car, et c’est le propre de la topologie, les lieux s’emboîtent les uns dans les autres. En topologie, discipline mathématique aux lointaines origines eulériennes, on définit la notion de voisinage, ce n’est pas quelque chose d’absolu, du genre « est voisin qui vit à moins de 500 mètres de moi », mais quelque chose de relatif se situant dans un système : si V est un voisinage de x, tout W incluant V en est encore un. Ce qui est fascinant dans cette notion mathématique (qui a permis aux Bourbaki de refonder complètement l’analyse au sens où l’entendaient Leibniz et Newton) c’est donc qu’elle contient en elle-même une notion d’ouverture. Pas étonnant d’ailleurs si on l’utilise pour définir la notion d’ouvert : en topologie, un ensemble est dit ouvert s’il est voisinage de chacun de ses points. Comme il est dit par Stiegler et al. « la localité est le processus d’une identification toujours ouverte, et non la projection fantasmatique d’une identité donnée ».
Si lutter contre l’entropie suppose le ressaisissement du niveau local car c’est de là que naissent les processus néguentropiques, cela suppose aussi une forme d’intervention ou « d’ajout » au réel. De par les facultés propres à Homo Sapiens, de par son immersion dans ce qu’on appelle noosphère, cela se fait par le savoir. J’ajouterai aussi que cela se fait par l’art : l’art ajoute quelque chose au monde, qui est justement ce qui, à un niveau local, remplace une région du réel qui irait vers l’entropie croissante par une région presque identique mais nouvellement informée : songeons à l’artiste Christo, récemment disparu, dont l’œuvre a principalement consisté à ajouter des matières et des formes, tissus enrobant le Pont-Neuf ou le Reichstag, planchers flottants entourant des îles ou palissades dans le désert californien (clin d’œil ici à mes compagnes de stage de peinture à Crest du 29 juin au 3 juillet).
Christo. La barrière qui court… (Running Fence)
Les auteurs de « Bifurquer » s’appuient abondamment sur les recherches menées il y a déjà longtemps (vers les années 1945) par des chercheurs comme Alfred Lotka et Georgescu-Roegen (économiste). Le premier a mis en lumière que « la production de savoir est la condition de la lutte contre l’entropie pour cette forme de vie technique qu’est la vie humaine ». Le second « reprendra le point de vue de Lotka en soutenant que l’économie a pour fonction de limiter l’entropie et d’augmenter la néguentropie », à condition bien sûr que cette économie « ne repose plus exclusivement sur la physique newtonienne, mais intègre la thermodynamique, comme question de l’entropie, et la biologie, comme enjeu de la néguentropie ». Pour Lotka, l’évolution exosomatique qui complète l’endosomatique est tout autant que celle-ci porteuse d’anthropie et néguanthropie (suivant le caractère bivalent des organes qu’elle engendre, les fameux « pharmaka »), d’où « la fonction vitale du savoir » qu’il faut non seulement protéger mais amplifier. Or, ici est intervenue une vraie catastrophe, contemporaine du début de l’ère anthropocène : la transformation du travail (au sens du grec ergon, travail comme producteur de savoir) en labeur (ponos) voire pire: en emploi. « Le travail a été transformé en emploi et les savoirs qui étaient mis en œuvre par le travail ont été progressivement transformés en formalismes machiniques » (p. 31).
Marx avait appelé prolétarisation ce processus de séparation de la conscience du travail accompli dans les fabriques industrielles. Déjà perçaient les effets de l’automation, de la fragmentation des tâches, du taylorisme et de la division du travail, le labeur n’était plus qu’une tâche fractionnée et répétitive accomplie pour un salaire sans que jamais n’apparaisse une possibilité de s’accomplir à travers lui. Les siècles postérieurs (le XXème et plus encore le XXIème pour ce que nous en voyons actuellement) ont amplifié le phénomène en s’étendant hors du monde de la fabrique des objets matériels vers celui des idées et du travail intellectuel, la recherche s’effectuant elle aussi désormais par « actions » fragmentées utilisant des prêts à porter méthodologiques (packages d’outils statistiques par exemple, dont l’utilisateur ignore souvent la manière dont ils fonctionnent). Stiegler parle donc de prolétarisation en un sens plus général, et plaide pour que l’ère nouvelle soit non seulement celle de la décarbonation mais aussi celle de la déprolétarisation. Par quels moyens ? Un gros effort doit être fait sur ce que les auteurs appellent l’économie contributive, dont le but est de « revaloriser les savoirs de toutes sortes – de celui de la mère qui sait élever ses enfants à l’heure des écrans tactiles aux savoirs les plus formalisés et mathématisés, bouleversés par les black boxes, en passant par les savoir-faire du travail manuel ou intellectuel à l’époque de l’automatisation » (p. 33).
L’entreprise est évidemment colossale. Monde de l’après-Covid ? Si seulement… Nous en voyons si peu les prémisses… pourtant le collectif « Internation » se prévaut d’un certain nombre d’expériences menées notamment à La Plaine Saint-Denis dans le 93. Il faudrait y aller voir de plus près. Les rapports de ces expériences proposés dans le livre sont hélas parfois obscurs (dans ce style évoqué au début de cet article, alors qu’on aimerait des récits, des témoignages un peu enthousiasmants). Il faudrait aussi parler de cette idée surtout développée au chapitre 10 par Daniel Ross mettant en parallèle les deux grands types de technologies aujourd’hui développées : celles à base de carbone et celles à base de silicium. Si les premières doivent être carrément éliminées (si nous souhaitons arriver à un monde où il soit encore possible de vivre), les secondes demandent un autre traitement : non pas les éliminer mais les aiguiller sur une autre voie. Ici repose l’idée de bifurcation qui donne son titre au livre. J’y reviendrai. Je termine par cette phrase qui (exception?) fait preuve d’une certaine envolée poétique :
Tout savoir sait quelque chose du monde en cela qu’il ajoute quelque chose à ce monde : il sait que ce monde est inachevé et qu’il faut continuer à le faire advenir. Cet ajout par lequel le monde advient par le savoir, c’est un apport néguanthopique aux mondes humains.
Il y a un lien entre les trois articles publiés récemment (+ celui-ci!), « Logique de la logique » et ceux que j’écrirai bientôt. Il passe, on le comprendra, par les écrits récents de Bernard Stiegler et du groupe autour de lui, Internation, ou « Association des amis de la génération Thunberg ». Il y a un lien aussi avec les goûts littéraires que j’ai déjà exprimés, passant par Jean-Marie Gustave Le Clézio que j’admire depuis mon jeune âge (je devais avoir 16 ou 17 ans) et dont je me réjouis de voir l’engagement actuel, qui le mène à dire que Greta Thunberg est la personnalité marquante du siècle.
J.M.G. Le Clézio: Greta Thunberg est la figure marquante de ce temps
J’ai expliqué dans le billet précédent (« logique de la logique – III ») en quoi la locativité était importante, car elle permettait de reconstruire la logique sur une autre base que sur des entités fictives (le « vrai », le « faux », le statut « individuel » des objets…), dont le mauvais usage conduisait inexorablement à des apories (rechercher la « vérité » des assertions dans une mise en abyme infinie renvoyant de méta-langage en méta-langage, admettre qu’un univers ne peut être que non vide, définir l’égalité entre deux objets alors qu’il est criant qu’ils ne peuvent avoir toutes leurs propriétés en commun, être incapable de déduire une conclusion d’un raisonnement simple parce qu’on ne voit pas qu’il y a une règle de coupure à appliquer etc.).
Je m’aperçois que j’ai peu développé l’aspect dynamique des choses. Erreur. Dans un mail privé, Jean-Yves Girard me dit que « la grande bifurcation dans [s]on travail tardif, c’est la découverte de l’usine, seule source possible de certitudes (raisonnables, pas absolues) : des tests permettent d’éviter les apories inhérentes à l’existentialisme ». Dont acte. Je crois qu’il faut comprendre ici que l’on ne peut pas tout rabattre sur l’usage local. L’aporie, en l’occurrence, serait ici celle de la volonté de tout produire localement, comme il vient à en être discuté dans les cercles écologistes… Une amie me racontait récemment l’expérience de ces jeunes paysans qui voulaient voir jusqu’où on pouvait aller dans le produire local et dans l’émission de zéro carbone, de fait il y avait insuffisance pour nourrir tout le monde et empêchement de distribuer toute sa production (manque de moyens non polluants pour déplacer la production au plus près des consommateurs). Ce que Girard entend par « existentialisme », c’est l’idée que l’on pourrait toujours tout recréer à partir de rien dans le temps présent, alors que nous utilisons toujours autre chose, des leviers par exemple, ou bien d’autres outils, dont nous savons par expérience qu’ils sont fiables et fabriqués pour l’usage que nous voulons leur donner. D’où l’opposition entre « usine » et « usage », que l’on trouve déjà formulée dans « Le fantôme de la transparence ».
L’usine et l’usage
La philosophie a souvent pratiqué des distinctions entre les jugements. Kant opposait l’analytique au synthétique (et, au-delà, le synthétique a priori au synthétique a posteriori), la philosophie du langage oppose volontiers le descriptif au performatif, mais aussi l’implicite à l’explicite. Girard, dans ses travaux antérieurs, a souvent opposé le locatif au spirituel. Ces diverses oppositions recèlent certes des nuances mais ont toutes le point commun de référer à des modes de connaissance distincts. L’affirmation selon laquelle un homme célibataire n’est pas marié relève d’une définition (analycité), il ne faut aucun effort mental particulier pour l’admettre, à la différence d’une autre qui dirait par exemple que les carrés multiples de 2 sont tous des multiples de 4 (synthétique). De la même manière, une table de logarithmes nous donne un explicite: la liste de tous les logarithmes des nombres entiers de 1 à 10 000 (au moins) alors qu’une calculette recèle en elle le petit programme qui, lorsqu’on l’active, nous donne la réponse à notre question « quel est le logarithme de x ? » (implicite). « Ouvre la porte ! » réfère à un ordre qui, normalement, déclenche une action, alors que « la porte est ouverte » est juste un constat. La ludique mettait l’accent sur l’opposition locatif / spirituel. N’ayant pas de formules parce que les ayant remplacées par des ensembles de lieux, elle ne permettait de travailler, en toute rigueur, que sur des schémas (desseins) fortement localisés. On n’avait pas a priori de possibilité de tirer de la ludique des formes générales s’appliquant à d’autres situations que l’actuelle, sauf à introduire des opérateurs de délocalisation ou un dessein particulier appelé Fax qui, par interaction avec un dessein quelconque, avait la faculté de déplacer ce dernier, de le recopier en un ailleurs locatif. C’est de cette manière que Girard éliminait le recours à la terrible notion d’occurrence (occurrence d’un symbole dans une formule… genre de définition prenant trois pages dans un manuel élémentaire de logique formelle en guise de préambule aux choses vraiment intéressantes!) : au lieu de partir d’un symbole abstrait et de dire que c’était bien le même qui occurrait en divers endroits de la formule (ce qui est une sorte d’acte de foi), on préférait partir de l’endroit, du lieu, et dupliquer la marque (avec un indice différent) là où on souhaitait qu’elle advienne… En délocalisant un dessein, on en atteignait une forme en quelque sorte « spirituelle » (débarrassée des contingences liées à une situation donnée). Dans la nouvelle mouture, cette différence est partiellement conservée : on parle de points et de liens entre ces points, ce qui n’est guère différent que de parler de lieux, mais on simplifie l’approche en opposant désormais non plus le locatif au spirituel mais… l’usine à l’usage ! Le mot « usine » n’est pas très beau, il n’a pas très bonne presse, on a tôt fait de dire : « une vraie usine » pour qualifier un ensemble trop grand, où les relations échappent à la compréhension immédiate (voire même « une vraie usine à gaz »), Girard l’utilise « pour la rime » (ici les deux premiers sons). On pourrait aussi choisir le mot d’atelier, plus sympathique.
usine…
L’usine, c’est là où l’on teste les objets avant leur mise en circulation, c’est donc très locatif et cela se fait dans un certain format. Par exemple tel modèle de voiture est fait pour rouler à l’essence, au gas-oil ou à l’électricité, pour ne pas dépasser telle vitesse etc. (c’est le format) et en fonction de cela, on appliquera des tests (robustesse, consommation etc.) à un exemplaire du modèle dans les locaux de l’entreprise (et on trichera éventuellement sur les chiffres). L’acheteur acceptera le format et fera confiance aux tests (le pauvre!). Après quoi il pourra partir avec le véhicule et en faire ce qu’il voudra, mais en ayant été informé de ses performances : c’est l’usage, qui n’est plus très locatif (ni très spirituel non plus, d’ailleurs!). On peut transposer cela aux objets de la logique (desseins, preuves, comportements) : nous avons déjà fait connaissance avec les tests, et le montage locatif qui aboutit à faire passer à un dessein certains tests avant qu’on le qualifie de « valide » correspond exactement à l’usine. Ce qu’on tirera de là, c’est notre usage normal (et normé!) des lois dérivées.
La dynamique des preuves
La chose importante que je n’ai pas dite dans les « chapitres » précédents est que la machinerie logique ne fonctionne (pour produire des théorèmes, des jugements…) que si elle est mise en action : c’est un des rôles de l’usage. Par exemple, afin de reprendre la version lewis-carrollienne d’Achille et la Tortue, la prolifération de formules intermédiaires se réduit à néant dès que l’on réalise que l’obtention d’une conclusion repose (uniquement) sur une interaction entre deux formules. Supposons que j’aie A et que vous ayez A => B, alors si nous nous mettons ensemble, mon A en position positive (je peux écrire |- A pour « j’asserte A » et j’admettrai alors que ce qui est à droite de « |- » est positif, ce qui est à gauche négatif) vient immédiatement neutraliser votre A en position négative (car on peut écrire aussi A |- B au lieu de |- A => B) et il ne reste plus que B en position positive (« |- B »). Cette action est la mise en application de la règle dite de coupure (formulée pour la première fois par Gentzen dans son calcul des séquents de 1934). Evidemment cette machinerie n’est pas interne au langage (comme le disent les logiciens usuels) puisque le symbole « |- » ne figure pas dans celui-ci.
Le coup de génie de Gentzen fut de démontrer qu’en réalité… cette règle de coupure n’est pas indispensable. Dans son calcul des séquents (que je n’expose évidemment pas ici, qu’on sache seulement que cela ressemble à des clauses Prolog), il est possible de démontrer une formule valide en ne se servant que des règles d’introduction à droite et à gauche des connecteurs et quantificateurs usuels, et pas de la règle de coupure. Alors, pourquoi cette règle ? Eh bien justement parce qu’elle permet de faire interagir des preuves, de les transformer, de faire des raccourcis etc. Par exemple, supposons que j’aie une preuve π de T et une preuve π’ de T => T’, alors je vais pouvoir brancher l’une avec l’autre de manière à obtenir une preuve de T’ : j’utiliserai pour ce faire la règle de coupure (entre les deux occurrences de T) et qui plus est : un algorithme me permettra de supprimer l’occurrence de cette règle dans la preuve de manière à obtenir π’’, une toute nouvelle preuve de T’… qui, elle, n’utilise pas la coupure et aurait pu être obtenue « directement », mais mon branchement et ma suppression de la coupure m’ont rendu la chose beaucoup plus facile. Peut-être avais-je dans la manche cette preuve de T, en la réutilisant, je me dispensais du travail de la refaire dans un nouveau contexte.
Je crois qu’en rappelant ceci, on se met tout à fait dans la position de comprendre ce qu’est l’usage et ce qu’est l’usine. L’usine produit des preuves toutes faites (elles ont été « testées ») et l’usage les branche pour en obtenir de nouvelles. On pourrait tout faire à l’usine, c’est-à-dire en locatif, mais cela n’aurait guère de sens… et tout faire « en usage » demanderait trop de temps, il faudrait prendre en charge soi-même les tests, fabriquer ses outils avant de s’en servir (ce qui n’est pourtant pas interdit, après tout, certains le font, et c’est très respectable).
Interaction: les joueurs de cartes de Cézanne
Vers une autre perspective sur le langage
Cette interaction avait été reprise en ludique où la règle de coupure y était en quelque sorte généralisée : il n’y avait pas de formulation de cette règle proprement dite mais l’idée que deux dessins pouvaient se brancher l’un à l’autre au moyen de leurs loci positifs et négatifs (ce qui arrive dans le dialogue quand chaque locuteur s’applique à répondre aux attentes de son vis-à-vis, le locus négatif traduisant une attente et le locus positif une action), après quoi, comme dans l’élimination des coupures, on neutralisait les pôles positifs et les pôles négatifs afin d’obtenir un dessin résultant (qui était parfois un dessin très particulier, quasi vide). On parlait, dans ce deuxième temps, de normalisation plutôt que d’élimination des coupures. C’était une opération très féconde du point de vue du langage, car on pouvait associer aux étapes de la normalisation des procédures d’unification qui permettaient de résoudre les mille et un sens non explicités dans un dialogue, comme par exemple la référence des énonciations non-phrastiques (les « oui », les « peut-être », les « humms », les « pourquoi » et les comment »…). Répondre par « oui » à une question, cela permet de ne pas reprendre l’intégralité du texte de la question à la forme affirmative, de la même façon qu’en utilisant une coupure on ne refait pas la totalité d’une démonstration, et quand on « normalise » (élimine la coupure) le contenu affirmatif de la question vient tout naturellement prendre sa place au lieu du « oui ». Idem évidemment pour les « non » ou les « peut-être », et cela conduit à voir qu’ils ne sont pas fondamentalement différents des « maintenant » et des « ici » qui parsèment notre discours, et qui sont d’autres manières d’éviter de dire explicitement le jour et l’heure et le lieu… On remarque ainsi que notre dire est plié, plein de « contractions » et de replis, que seule une procédure de normalisation peut étaler, déplier, autrement dit expliciter. Une théorie du langage construite sur ces bases évite les nombreuses apories de la discipline dite « sémantique formelle », apories inévitables puisque cette discipline repose justement sur… la logique usuelle (valeurs de vérité, « modèles » etc.). Elle serait plus proche de l’usage poétique (poïétique?) que nous faisons de la langue en ceci qu’elle serait bien davantage basée sur ce qu’on fait avec la langue (bien d’autres choses que soi-disant « décrire la réalité ») que sur le supposé rapport de celle-ci avec la réalité (voir ici les dernières productions de François Rastier, portant notamment sur le « second Saussure » – qui n’avait rien à voir avec le premier).
Si j’ose encore un peu continuer sur ma lancée, essayant d’aller plus au fond dans la démarche girardienne de reconstruction de la logique, je vais me sentir obligé d’introduire quelques détails techniques. Je rappelle d’abord ici que si la logique nous intéresse ce n’est pas en tant que recherche d’une clôture, sorte de terminaison de la méthode scientifique et de la raison comme ont pu le donner à penser aux grandes époques du positivisme logique (début du XXème siècle) les Hilbert, Russell ou Tarski. Pas de « solution finale » ici, comme le répète souvent Jean-Yves Girard, c’est-à-dire de ce genre de solution dont on sait trop bien l’utilisation faite au cours de l’histoire par les pires idéologies totalitaires. Pas de « transparence » non plus, dont ce même Girard a bâti la figure du fantôme dans un de ses livres récents… Cela me renvoie à moi-même, à l’époque où, jeune idéaliste se croyant marxiste, j’imaginais que tout discours pouvait livrer sa vérité à coup d’analyses, voire même… « d’analyse automatique » (!). L’idéal frégéen (d’ailleurs repris à Leibniz) consistait en la croyance qu’il pouvait exister une langue parfaite telle qu’une fois nos paroles retranscrites en elle on en verrait immédiatement le sens… une sorte de sérum de vérité en somme. Mais il n’en va pas ainsi… sous nos paroles surgissent toujours d’autres paroles, et jamais n’apparaît un socle qui donnerait enfin la clôture de toutes choses dites. Pourtant il demeure des lignes de force, des tendances, certains discours sont plus crédibles que d’autres, certaines convergences apparaissent entre des dires distincts, des dialogues se forment. On pensera peut-être ici aux dialogues socratiques qui, depuis deux mille cinq cents ans, continuent de susciter notre réflexion à coups d’arguments et de contre-arguments. Un peu comme si l’espace de nos dires était structuré et que nous cherchions à en connaître la géométrie de la même façon que nous avons voulu depuis l’aube de la réflexion explorer et théoriser celle de l’espace environnant. La Théorie de la Relativité générale s’appuie sur l’idée que la force de gravitation est un effet de la courbure (géométrique) de l’espace. La logique serait peut-être aussi l’effet d’une courbure, mais de l’espace de nos dires. Vue comme cela, elle ne serait pas une norme arbitraire, comme semblent le dire beaucoup de philosophes, dont l’Ange Scalpel déjà rencontré. En tout cas, elle ne serait pas une transcendance qui nous imposerait un cadre de pensée définitif, juste un outil parfois, une commodité nous permettant de passer d’une pensée à une autre.
Dialogues et jeux infinis
A partir de cette façon de voir, on peut toujours prendre pour objet de réflexion un bloc d’argumentation, une tentative de preuve par exemple dont on ne sait pas a priori si elle va aboutir, qui va devoir affronter des objections, autrement dit des recherches de contre-preuves, d’oppositions à la thèse avancée. Dans la version antérieure des travaux de Girard, cela apparaissait dans l’entreprise de la ludique (baptisée ainsi parce qu’il y avait derrière une idée de jeu, un peu comme dans la logique dialogique, les règles arbitraires en moins). Preuves et contre-preuves s’opposaient. Avant de savoir si l’on avait l’une ou l’autre, on parlait juste de desseins ou de dessins, jeu de mots créé pour faire comprendre qu’à la fois on avait sous les yeux une entité géométrique (dessin) et une sorte de stratégie (dessein) – de fait, nous savons qu’étymologiquement les deux mots sont liés – Un dessin était une manière d’avancer dans le dialogue, de disposer ses pions en tenant compte des réactions attendues du partenaire, et on parvenait dans certains cas à une situation de convergence : les deux partenaires s’entendent pour dire que le dialogue peut se terminer, soit parce que l’un des deux a obtenu tout ce qu’il voulait savoir de la part de son partenaire, soit parce qu’il ne peut plus décemment continuer, ayant fait le tour de tous les arguments disponibles qu’il puisse opposer à l’autre. C’est ainsi que, dans une situation idéale, tout dialogue devrait s’achever… ! De fait, il est rare que les choses se passent ainsi… et, très souvent, le jeu est sans fin. Un spécialiste de l’argumentation et de la rhétorique, Marc Angenot, disait même que l’on est bien en peine de trouver au travers de l’histoire, une polémique qui serait définitivement close (les débats philosophiques par exemple, que l’on croit achevés à un moment, finissent presque toujours par redémarrer), d’où le fait que souvent… les dessins soient des figures infinies, que l’on ne converge jamais et que l’on soit dans cette situation affreuse où l’on part dans un problème sans avoir jamais l’assurance que la solution sera trouvée un jour et qu’à chaque instant nous soyons pris par l’angoisse : faut-il attendre encore un peu ou bien est-ce peine perdue ? Peut-être est-ce cela qui a conduit Girard à renoncer à la ludique. Après tout, quand on fait de la logique d’un point de vue mathématique, on veut que ça serve à résoudre des problèmes, à tester la rigueur d’une démonstration etc. (et pas forcément à nous renseigner sur l’état d’avancement de notre « analyse », ainsi que le voudraient peut-être les psychanalystes !).
Du côté de l’Autre et du négatif (Hegel)
Imaginons encore que nous soyons dans un « bon » cas, un cas où « ça converge »… Bien sûr, dans une situation donnée, face à une formule que l’on avance et souhaite démontrer, il n’y a pas qu’un seul dessin possible, il y en a plusieurs. Certains peuvent être « gagnants » et d’autres non. Les dessins « gagnants » sont ceux qui conduisent le partenaire à concéder qu’il n’a plus d’arguments à opposer, ou plus de questions nouvelles à poser. Les dessins des deux dialoguants s’affrontent ainsi, mais pas toujours sous l’aspect d’un combat, cela peut être aussi celui d’une recherche d’entente, tous les jeux ne sont pas des duels, certains sont coopératifs, certains n’ont pas d’autres buts que de mettre en commun des expériences et des savoirs. Là apparaît tout l’intérêt de la « ludique », pas assez exploré à mon avis…
La faiblesse réside en ce que, bien entendu, le fait qu’un dessin soit gagnant n’est pas une garantie pour qu’il soit une « preuve » : il se peut que le partenaire n’ait pas été le meilleur possible, qu’il se soit laissé dominer ou satisfaire un peu trop facilement. Les dessins gagnants ne sont pas des preuves, ou alors il faudrait qu’ils aient été confrontés à tous les contre-dessins possibles, mais totaliser tous les dessins ou contre-dessins possibles n’est pas une mince affaire… c’est un passage à la limite, une idéalisation. Mais bon, admettons qu’il soit faisable, quels ensembles de dessins allons-nous privilégier, étant entendu que nous ne souhaitons plus partir d’une formule à démontrer mais simplement de dessins, de candidats à devenir des preuves… qu’est-ce qui est preuve, dans tout ça ? Ici intervient l’Autre, la caractérisation par l’extérieur, le négatif, le complémentaire… et en cela Hegel, avec sa dialectique, n’est plus très loin.
Georg Wilhelm Friedrich Hegel
Car si les dessins de deux dialoguants sont dans une situation d’orthogonalité quand on arrive à une « fin heureuse » (une convergence) et que l’on peut alors écrire D ⊥ E, où D est le dessin du premier intervenant et E celui du second, alors on peut associer à D un ensemble de dessins particuliers : tous ceux qui sont comme E, autrement dit orthogonaux à D. Notons D┴ cet ensemble. Si nous avons pu prendre l’orthogonal (le négatif) une fois alors rien n’empêche qu’on le prenne deux fois, et qu’on fabrique D┴┴ qui, bien sûr contiendra D comme l’un de ses éléments, mais pas lui seul, d’autres aussi, dont on peut dire qu’ils se comportent comme D du point de vue de l’orthogonalité. On définira alors D┴┴ comme un comportement. D’où une totalisation possible à partir d’un dessin, mais qui passe par le négatif.
La locativité au lieu de l’identité(*)
Un point important est que, bien entendu, se passant des formules (notamment des lettres qui les composent, les A, B, C, …), on doit bien dire où et comment s’enracinent les processus qui nous intéressent. Ici, la grande nouveauté girardienne fut d’introduire les lieux, rien que des lieux (locus solum, dit Girard dans un article manifeste de 2001 en reprenant le titre d’un roman de Raymond Roussel, à peine déformé – Locus Solus). C’est à partir d’un ensemble de lieux qu’une stratégie se développe, exactement d’ailleurs comme dans les jeux dits de stratégie, où l’on ne donne aucune identité particulière à une case de l’échiquier, qu’elle soit blanche ou qu’elle soit noire (autrement dit positive ou négative dans la terminologie ludique). Libre à nous ensuite d’étiqueter les cases si cela nous chante, mais cela n’aura rien changé à la règle du jeu, ni aux stratégies que l’on peut élaborer.
Parler de lieux, de localités donc (de loci comme on dit aussi dans le vocabulaire de la ludique), cela résonne étonnamment bien à l’heure où les identités sont trop souvent mises en exergue, ruinant et minant l’espace social. On retrouvera ici un passage du livre récent du groupe réuni autour de Bernard Stiegler (Bifurquer) :
Une localité n’est pas une identité. C’est au contraire un processus d’altération constitué de localités plus restreintes et multiples, et inclus dans de plus vastes localités.
Ou encore :
La localité est le moteur de la différence elle-même ; elle n’est pas constituée par son identité (elle n’en a pas) mais par son potentiel de différenciation […]. La différence est première, c’est-à-dire primordialement liée à une autre différence plutôt qu’à l’existence d’une identité pré-constituée.
Voilà peut-être ce qu’a toujours voulu Girard : fuir l’identité et l’essentialisation pour ne partir que de systèmes de différences, échelles de différences par lesquelles se construit une réalité qui n’est que transitoire, évanescente, toujours condamnée à disparaître mais pour donner naissance à d’autres différences. En somme, il n’y aurait pas d’êtres (même en mathématiques) mais seulement des systèmes de différences, autrement dit des comportements, dont les agencements divers ne pourraient que donner l’apparence de l’être. L’apparente stabilité de la formule ne viendrait que d’une immobilisation temporaire « forcée » dans un comportement.
Le rôle des tests
Mais on l’a vu, Girard abandonne la ludique pour cause d’incapacité à fournir une authentique caractérisation de ce qu’est réellement une preuve en logique (et en mathématique). Un comportement demeure cependant un ensemble de desseins (ou dessins) (dont nous ébaucherons plus loin le mode de construction). Une particularité d’un dessin, alors illustrée par notre présentation succinte donnée précédemment des réseaux de preuves, est que, pour être reconnu comme « preuve », il faut qu’il passe certains tests. Dans notre illustration, il fallait essayer toutes les sélections possibles d’une arête sur les deux d’un lien « par » (ce qu’on appelle un switching) et vérifier chaque fois si on obtenait un graphe connexe et sans cycle. Chacun de ces switchings donne lui-même un réseau (un dessein) et le dessein global est correct (est une preuve) si et seulement s’il passe l’épreuve de chacun d’eux. On comprend ainsi la dualité qu’il peut y avoir entre preuves et tests. On exprimera à nouveau cette dualité en termes d’orthogonalité. On écrira P⊥T pour l’orthogonalité entre une tentative de preuve et son test (qui est aussi une tentative de preuve, mais de la «thèse » opposée… inutile de se demander ce qui pourra tester un test, c’est le réseau auquel il s’applique, il y a parfaite dualité!), et on écrira P┴ pour l’ensemble de tous les desseins orthogonaux à P. On peut alors construire P┴┴ et… on retrouvera la même idée de comportement que précédemment.
La notion de comportement donne la clé de la reconstruction de la logique : on pourra essayer toutes sortes de combinaisons ensemblistes pour obtenir les différents connecteurs… Bien sûr, on peut aussi utiliser ceux que nous connaissons déjà, les tenseurs, les par etc. mais rien n’interdit d’en introduire de nouveaux. Dans la logique linéaire initiale, il y avait aussi des opérateurs un peu particuliers, on les appelait exponentielles (pour des raisons que je ne donnerai pas ici), on les notait « ! » et « ? », par exemple «!A » indiquait le caractère inépuisable d’une ressource (on pouvait penser à l’air que nous respirons… sauf que désormais, cette analogie est suspecte, continuerons-nous encore longtemps à le respirer?), «?A » était plus difficile à interpréter… comme une « sous-ressource » en quelque sorte… peut-être « pourquoi pas A ? », une éventualité de ressource… Cela était fait pour que (!A)┴ =?(A┴) (le point de vue opposé à l’inépuisabilité de A est le doute sur le fait qu’on puisse seulement nous en fournir un exemplaire). Ces sortes de « modalités » sont abandonnées : trop complexes à exprimer en termes de réseaux. Mais à la place des connecteurs nouveaux, susceptibles de les englober (comme !A⊗ B etc.).
On pourra même donner sens à des écritures à première vue bizarres comme ∃X P (X), où P (X) est un comportement dépendant d’une variable, mais je n’entre pas dans ces détails…, je note simplement qu’ils permettent de reconstruire l’équivalent d’une logique de second ordre. Bien noter en effet que dans ce genre d’écriture, X n’a rien à voir avec une « variable individuelle », il s’agit de l’équivalent d’une proposition, ce qui explique qu’il y ait des liens axiomes entre X et ~X (et donc aussi à côté de X : ~X, ce qui n’aurait aucun sens avec des variables individuelles!).
Nous avons ici la réalisation de ce que Girard annonçait à la dernière page du fantôme de la transparence :remplacer les individus par des propositions, a par « je suis a » de sorte que le problème de l’égalité soit résolu, a n’étant plus égal à b « parce que toute propriété de a est propriété de b et réciproquement » mais parce que, tout simplement, il y a équivalence (linéaire) entre « je suis a » et « je suis b ».
De l’introduction des katakana
Un mot sur la construction des réseaux : des étoiles remplacent les suites de formules atomiques, du genre (p1, …, pk, q1, … , ql), dont les pi et les qj sont les rayons, leur différence étant que les premiers (de 1 à k) sont dits objectifs et les seconds (de 1 à l) subjectifs. Si l = 0, on a une étoile objective. On les branche par des liens axiomes et par des liens venant du bas du réseau, ceux associés aux opérateurs. La notion d’unification, familière à tous ceux qui ont fait du Prolog dans les années quatre-vingt, est abondamment utilisée (trace du théorème de Herbrand) et le réseau est dit correct s’il vérifie la formule d’Euler-Poincaré calculée avec des poids qui dépendent des atomes et des partitions induites sur eux par les opérateurs, ces poids étant différents selon la part prise par les objectifs et les subjectifs dans la démonstration, une preuve est visible si son poids est positif.
Ainsi peut-il bien y avoir des preuves visibles et des preuves invisibles ! Un comportement est « vrai » si et seulement s’il contient une preuve visible.
Si l’on considère les atomes, il vient vite que, en réalité, il en suffit de deux, l’un objectif, l’autre subjectif (se souvenir que le propre de la logique linéaire est de ne pas avoir de règle de contraction, si un même objet est répété deux fois, les deux fois comptent, on ne fait pas comme s’il y avait juste une instance idéalisée de la chose, que l’on reproduirait autant de fois que l’on veut). Ce sont les deux seules constantes admises désormais, qui n’ont rien à voir avec ce que l’on appelle couramment constante prédicative (P, Q, R, …) dans la logique des prédicats : ce sont de vraies constantes, comme le sont π ou e… c’est pour cela que Girard leur réserve des noms exotiques, fu et wo de l’alphabet des katakana (allez savoir pourquoi…). Et la grande nouveauté est que ces wo et fu suffisent à… reconstruire l’arithmétique formelle ! Mais je n’en dirai pas plus…
Vers le soubassement : géométrie et calcul
Comme on peut le constater, la notion « d’absence de cycle » joue un rôle central dans la définition des preuves : absence de cycle dans un branchement (ou switching) et absence de cycle dans l’unification des termes (on ne veut pas obtenir d’équation du genre y = f(y) ce qui entraînerait y = f(y) = f(f(y)) = f(f(f(y))) = … indéfiniment). Dans un domaine plus discursif et dialogique, comme fourni par les dialogues socratiques, nous avions montré, quelques amis et moi, que là était une source de la logique socratique, qu’il ne s’y agissait pas d’amener à une contradiction au sens aristotélicien, mais à une situation où le dialogue doit s’arrêter car les participants atteignent la certitude que s’ils continuaient l’échange d’arguments, celui-ci serait sans fin, sorte de constat d’impasse (tu soutiens A, moi je soutiens ~A, rien ne t’oblige à renoncer sauf que chaque fois que tu avanceras A, tu sauras que, moi, je reproduirai mon argument en faveur de ~A, et moi je sais que tu peux reconduire A de la même manière, de sorte que la discussion sera sans fin – cf. en particulier le dialogue Hippias mineur). Par ailleurs, une preuve, on le sait, est la stricte analogue d’un programme or le bouclage infini (absence d’arrêt) d’un programme est le signe le plus pur de son échec, de l’existence d’une erreur fatale en son sein (et on sait aussi qu’il n’y a aucun moyen a priori de se prémunir de ce genre de risque…).
La démarche de Jean-Yves Girard parviendrait donc à cerner au plus près les conditions de possibilité de la logique dans des contraintes d’ordre géométrique et calculatoire (les deux, le géométrique et le calculatoire, étant probablement liés). C’est en cela bien sûr que l’on peut répondre à Ange Scalpel que non, les axiomes de la logique ne sont pas condamnés à être circulaires, d’abord parce qu’il n’y a pas d’axiome à proprement parler (!) ensuite parce que justement c’est l’évitement des cycles et circularités qui fonde la logique.
Petite remarque ici : cela ne veut pas dire que cycles et circularités soient bannis, interdits de cité, voués aux gémonies, de même que les réseaux qui divergent (les interactions entre dessins qui se perdent dans l’infini) ne sont pas des démons dont on ne veut rien savoir, simplement ils n’entrent pas dans la logique, ils appartiennent à un ailleurs sur lequel il est difficile de construire des discours, géométrie mystérieuse et quasi inconnue comme celle des trous noirs…
noeud sans fin ou ashtamangala, symbole de l’heureuse connexion entre le destinataire d’une lettre et son expéditeur (Wikipedia).
(*) Dans la ludique, comme dans les réflexions menées dans « Bifurquer », la locativité s’oppose à l’identité comme le pur existant s’opposerait à l’essence. En disant qu’il n’y a rien que le lieu, Girard revendique un existentialisme sans transcendance ni ego. Une pensée naïve exprimerait qu’il y a de l’identique, en particulier un soi qui demeurerait identique à lui-même au cours des changements de lieu et de temps, l’identique à soi serait celui qui dit «je ». Aporie de la linguistique énonciative : qu’est-ce que « je » ? réponse : celui qui dit « je » (et il n’y a pas d’autre réponse), mais celui qui disait « je » n’est déjà plus là, n’est plus le même que le « je » de « maintenant », lequel « maintenant » est déjà aussi dépassé. Il n’y a donc que des localisations temporaires, des loci que des dessins joignent les uns aux autres selon une géométrie soumise à l’aléa. Bien peu de réseaux convergent entre eux (un infini dénombrable par rapport au continu des possibles?) grâce auxquels on puisse repérer des comportements. Cette théorisation a un contenu politique, aussi étrange que cela puisse paraître au premier abord, dans la détermination d’une « droite » et d’une « gauche », question que je me pose souvent à moi-même afin de savoir à quel camp j’appartiens, c’est facile à savoir : l’identité est de droite, la locativité est de gauche. Qui se dit attaché au concept d’identité est forcément de droite : il tient aux valeurs attachées aux racines, à la prégnance du sol. Heidegger est de droite. Il est insensé que des gens dits de gauche se soient réclamés de lui. A l’inverse, la locativité est prête à accueillir n’importe quelle formule, n’importe quelle marque d’une présence, en cela elle manifeste son ouverture à l’autre, au négatif. Hegel est bien sûr de gauche.
Je continue ma série sur la logique tout en sachant que peu de lecteurs iront spontanément me suivre. Il faudrait pour cela que je sois plus convaincant dans mes explications que la logique peut intéresser tout le monde. « Ouvrir la logique au monde » tel était le titre d’un livre dirigé par Samuel Tronçon et Jean-Baptiste Joinet en 2009 (d’après un colloque de Cerisy portant ce titre). Ce livre contenait des interventions de Jean-Yves Girard, Giuseppe Longo et quelques autres (Michel Bitbol, Pierre Livet, Bernard Teissier…) qui tentaient de réfléchir à l’apport de la logique contemporaine à notre connaissance du monde au travers notamment de la notion de calculabilité (par exemple : la thèse de Church physique, celle selon laquelle l’univers calcule et les fonctions qui s’y révèlent sont donc « calculables », est-elle valide ?). Si j’en crois l’horizon actuel, post-pandémie et en plein dans la crise climatique liée au réchauffement de la planète, une nouvelle pensée serait requise, au sens d’une nouvelle manière de penser le monde (parce qu’on ne va pas brutalement, sans transition, installer une nouvelle pensée comme si on transplantait un nouveau cerveau à la place de l’ancien chez toute personne qui se mettrait en devoir de réfléchir). Ils disaient « Nouveau monde » mais il fallait dire « nouvelle manière de penser le monde », or qui ne voit que pour cela, il faudrait d’abord opérer une critique de nos instruments anciens de pensée, et donc en premier lieu de la logique qui est à la base de nos raisonnements ? Je viens de découvrir le livre « Bifurquer », écrit par un collectif (« les amis de la génération Greta Thunberg ») qui comprend, entre autres Bernard Stiegler, Jean-Marie Le Clézio et le sus-nommé Giuseppe Longo, autrement dit des anthropologues, des écrivains, des mathématiciens, des philosophes et même des artistes et des designers. Cela semble être une entreprise salutaire de repenser notre monde, que je salue, et c’est en tout cas une belle initiative interdisciplinaire visant à réviser les fondements de nos savoirs. Pas de logicien dans cette assemblée (Girard et Longo ont dû se fâcher)… Dommage.
Pourquoi votre fille est muette ? L’égalité et les individus etc.
Dans mon précédent billet, je faisais part d’un premier étonnement : comment tirer de l’existant à partir de rien ? D’autres étonnements sont possibles. Ainsi figurera toujours comme axiome la formule A => A, ou, ce qui revient au même, la règle selon laquelle de A on peut toujours déduire A, qualifiée en général de règle d’identité. Quoi de plus naturel qu’admettre en effet que si A est vrai, alors… A est vrai ! Oui, mais alors pourquoi a-t-on besoin d’un axiome pour le dire ? De fait, dans la logique « réelle », nous ne déduisons jamais A d’un A que nous savons déjà être vrai, ou alors cela s’appelle une pétition de principe : si votre fille ne parle pas, madame, c’est qu’elle est muette. Une manière de prouver que A => A est vraie (dans un système dit « de la déduction naturelle ») consiste à poser A comme hypothèse puis, par simple réitération de l’hypothèse, à réécrire A (tour de passe-passe qui ne convainc pas), après quoi, on « décharge » l’hypothèse A et on dit : vous voyez, A « implique » A… Une autre formule semblable est A => (B => A) que l’on démontre ainsi : se plaçant sous l’hypothèse que l’on a A, on fait n’importe quelle autre hypothèse B et, comme dans la précédente, on réinscrit en dessous A par réitération de l’hypothèse. Formule extraordinaire qui vous permet de dire :
du fait que l’on puisse guérir de la covid 19, je peux déduire sans problème que si la chloroquine est administrée alors on peut guérir de la covid 19… (mais aussi bien en administrant de l’oscillococcinum ou de la poudre de perlimpimpin).
Autre bizarrerie, contrairement à ce que l’on pourrait croire, en prenant trois propositions arbitraires, il se trouve que nécessairement deux au moins d’entre elles sont équivalentes, on peut en effet prouver :
(A <=> B) ∨ (A <=> C) ∨ (B <=> C)
ce qui, on en conviendra, laisse bien peu de place pour exprimer des propositions nuancées !
Et que dire des « individus » qui peuplent notre univers, ceux dont le nominalisme voudrait reconnaître comme seules entités « existantes » ? (voir la querelle des universaux). Outre que nous avons du mal à délimiter pratiquement ce que nous entendons par « individus » (cela dépend vraiment du regard adopté, suis-je un individu moi-même ? Ou bien ne faut-il pas plutôt considérer que ce sont les cellules qui sont des individus. Les micro-organismes ? Les virus?), il est très difficile théoriquement de dire quand nous sommes en présence de deux individus identiques ou différents. Ici intervient l’enjeu délicat de l’égalité. Quoi de plus simple et de plus répandu que le signe « = » ? et pourtant, est-il seulement défini ? Une relation d’équivalence comme une autre, appris-je en classe, oui mais alors comment la distinguer ? Leibniz eut la bonne idée de dire que deux individus sont égaux si et seulement s’ils ont exactement les mêmes propriétés (ce qui implique de nouvelles entités : les propriétés, et nécessiterait que l’on quantifie sur elles avec toutes les difficultés que cela comporte etc.).
t = u si et seulement si toute propriété de t est propriété de u et réciproquement
ah bon, mais immédiatement saute aux yeux une propriété de t qui n’est pas celle de u… la localisation spatiale (t est à gauche de u). De la délicatesse des individus et de leurs propriétés…
Tout ceci (et d’autres choses encore…) fait dire à Jean-Yves Girard que, décidément, non, la logique classique n’est pas la logique…
En passant, soulignons les aberrations d’une pensée totalement centrée sur ces vieilles querelles qui tournent autour de ce qui existe vraiment, les individus ou les propriétés (ou les concepts etc.). W. V. O. Quine a régi le monde de la philosophie américaine pendant presque un siècle, il s’inscrit dans la continuation de Russell et a donné, certes, quelques œuvres qui méritent d’être lues attentivement, mais il avait décidé une bonne fois pour toutes que seule la logique des prédicats du premier ordre était la véritable logique, allez savoir pourquoi… au nom d’un nominalisme enraciné. Il avait un solide mépris pour le second ordre (et aussi pour les logiques modales, qui, il est vrai, n’apportent guère à nos efforts, quoiqu’on en dise). D’où cette maxime célèbre : « être, c’est être la valeur d’une variable » (seul existe ce sur quoi peut porter un quantificateur). Une telle restriction de l’existence est typiquement ce qui peut sembler dangereux en ce monde qui demande à ce que l’on réfléchisse à bien d’autres entités que les individus… (l’idée quinienne est la même que celle jadis affirmée par les économistes néo-libéraux à la Hayek ou les politiciens à la Thatcher selon qui il n’y aurait rien de tel qu’une « société » – no such thing as society – puisqu’il n’y aurait que des individus !).
et les mathématiques dans tout ça ?
Pourtant, on notera que la logique dite classique fut bien utile quand il s’agissait de garantir la justesse des démonstrations mathématiques (justesse bien approximative avant Frege, du temps de Gauss et de Cauchy…), mais c’est que, du strict point de vue des mathématiques, tous ces défauts ne sont pas si importants. Lorsque l’on accepte de n’envisager une proposition mathématique que sous l’angle de sa bivalence (être fausse ou être vraie), il ne faut pas s’étonner que l’on ait beaucoup de propositions équivalentes ! Ou bien, il n’est pas grave d’avoir des règles de déduction un tantinet absurdes : on ne les utilise pas car elles sont inutiles, le mathématicien peut se permettre de les ignorer, la règle d’identité ne va pas ajouter des conclusions fâcheuses puisqu’il s’agit de répéter la même assertion… Quant à l’idée qu’un univers se doive d’être non vide, on s’en accommode sans difficulté (tant mieux même puisque cela peut éviter des sources d’ennui!). D’où il vient finalement que les mathématiques telles qu’elles sont ne sauraient être remises en cause pour autant. Bien sûr, comme dit plus haut en regard du théorème d’incomplétude de Gödel, on ne parviendra jamais à prouver leur cohérence. Peut-être viendra un mathématicien de l’an 3000 qui détectera une contradiction au cœur de l’édifice causant ainsi son effondrement, mais s’il est assez fort pour cela, sans doute aura-t-il dans sa manche une martingale pour reconstruire une super-mathématique…
Il nous faut nous résigner à notre condition humaine dans tous les domaines, même celui-là, ne sommes-nous pas dans l’impermanence ?
Tout ceci en tout cas semble légitimer le parti pris par Girard d’admettre comme support suffisant à ses travaux la bonne vieille théorie des ensembles, dite théorie ZF (pour Zermelo-Fraenkel). C’est donc sans aucun scrupule qu’on s’autorisera à parler d’ensemble de preuves, d’orthogonal ou de filtre ensembliste. (NB : c’est bien là le seul point commun que l’on peut trouver entre Jean-Yves Girard et Alain Badiou).
La vérité dans les preuves… et les réseaux de preuve
Il reste que ce n’est pas parce que la logique classique sert de bon outil technique (un bon marteau, une bonne clé anglaise, mais on ne demande pas à un marteau de faire plus que ce qu’il lui est possible de faire) qu’il faut l’admettre comme expression pure de la logique au sens où nous l’avons caractérisée précédemment comme soubassement du langage et même de notre monde.
Mais alors où saisir cette insaisissable logique ?
Ailleurs sans doute que dans les formules, les variables et les constantes « individuelles ».
Qu’est-ce qui peut être « vrai » ? des formules ? Mais comment vérifierions-nous leur vérité si ce n’est en nous référant à des modèles qui, par essence, ne sont que des transpositions du même sur un autre plan (car les logiciens des modèles ne font jamais que mettre en relation des langages les uns avec les autres, ils ne mettent jamais en relation un langage avec « la réalité » puisque celle-ci s’échappe à tout jamais…) ?
Une preuve, en revanche, peut être qualifiée de « vraie », elle le sera en effet si nous avons vérifié à chaque étape la correction d’une règle appliquée. Ici, nous répondons à la première question d’Ange Scalpel : 1. Comment la logique peut-elle être féconde, si ses inférences sont triviales (paradoxe de Mill) ? À laquelle lui-même répond par : « [Ce] problème peut être résolu si l’on caractérise le domaine de la logique non seulement comme celui de la vérité, mais aussi comme celui de la preuve et de l’inférence ». A quoi nous ajoutons que ce n’est pas seulement « aussi » qu’il faut dire, mais « avant tout », voire « seulement »… et que, autre façon de voir les choses, une preuve pourra aussi être qualifiée de « vraie » si nous avons pu vérifier un critère qui s’avèrerait être un critère de correction infaillible. C’est cela qui nous conduit aux derniers travaux sur « une logique sans système ».
Vérifier la validité d’une preuve en procédant pas à pas suppose que nous soyons au sein d’un système formel, avec ses règles et ses axiomes, reproduction de l’éternel achoppement, celui de notre pensée avec un cadre rigide dont les axiomes ont toujours une part d’arbitraire. La pensée est enrégimentée, corsetée au sein d’une axiomatique, celle-ci fût-elle « non classique » (c’est-à-dire intuitionniste, partielle, libre, dialogique ou… linéaire – au sens de la première version de la logique linéaire, exprimée en calcul des séquents, où l’on voit apparaître des êtres rendus nécessaires par le formalisme mais auxquels on a du mal à conférer un sens, comme des éléments neutres bizarres par exemple). La logique linéaire née en 1987 aura permis au moins de mettre à jour ces entités nouvelles et remarquables que sont les réseaux de preuve. Un réseau de preuve est un graphe (définition : un ensemble de points et d’arêtes, chaque arête reliant deux points) associé à une preuve. La logique multiplicative, celle qui possède comme connecteurs le « par » et le tenseur (℘ et ⊗) (« par » dénommé ainsi pour une lointaine référence au parallélisme, le tenseur étant un « et » multiplicatif, autrement dit une opération de cumuler une ressource avec une autre) et qui possède une négation, ou orthogonalité (interprétable comme changement de point de vue quand on se place dans une perspective dialogique), et qui permet de définir une implication particulière, dite « linéaire », A –o B par A –o B = A┴ ℘ B, c’est-à-dire « contre A je peux avoir B », permet de définir une notion de réseau assez facile : les connecteurs sont représentés par des liens de types différents – un lien est un mini-graphe avec deux arêtes chacune reliant la formule de départ à ses deux constituants reliés soit par un ℘ soit par un ⊗. On admet que les liens de type « par » sont en pointillés et les liens de type « tenseur » en traits continus. Un lien « axiome » est une arête qui unit un atome (formule sans connecteurs) à son orthogonal (soit A à A┴). On démontre (critère dit de Danos-Régnier) que la suite de formules à laquelle est associé le graphe est une preuve si et seulement si le graphe possède une propriété remarquable : toute sélection pour chaque lien « par » d’une des deux arêtes possibles (donc en pointillé) conduit à un graphe connexe et sans cycle.
des liens (celui de droite est en principe en pointillés)un réseau correctun réseau incorrect: quand les deux liens « par » du haut sont positionnés sur « gauche », on obtient un cycle.cycle dans le réseau précédent en switchant deux fois sur G
Ayant vu cela, on se pose la question évidente : mais pourquoi s’en tenir à des preuves données séquentiellement et leur associer ensuite un graphe ? Pourquoi ne pas prendre pour premier objet le graphe lui-même ? Quitte à ce que d’autres construisent une preuve associée dans un système convenable ou… quitte à se passer complètement de « système convenable » ! Alors cela en sera fini de l’idée selon laquelle toute justification de loi logique serait arbitraire et circulaire, deuxième problème d’Ange Scalpel qu’il « résout » en affirmant péremptoirement que toute justification des lois logiques est nécessairement circulaire : car des lois logiques peuvent être justifiées par de simples contraintes objectives de l’espace de nos dires (nous y reviendrons), un peu comme nos déplacements spatiaux sont régis par des contraintes de géométrie.
Une logique sans système est-elle possible ? Comportements et autres desseins
Une logique sans système, c’est ce que propose Jean-Yves Girard dans sa série d’articles « Transcendantal Syntax » et dans son dernier « tract », « Le monstre de Gila »(*). Qu’on n’attende pas de moi ici que j’en donne une présentation claire et fidèle, ni que j’entre dans les détails techniques, ce dont je suis bien incapable, étant peut-être trop paresseux, ou trop ignorant des méandres d’une démarche dont les débuts remontent aux années 1970 (et au fameux système F, plusieurs fois pris en référence). Disons que Girard s’appuie sur quelques résultats essentiels comme le théorème de Herbrand (de Jacques Herbrand, logicien français des années vingt mort en montagne à l’âge de 23 ans, et qui fait partie des rares logiciens admirés par l’auteur), théorème permettant de ramener la preuve d’une formule de logique des prédicats du premier ordre à celle d’un ensemble fini de propositions, et qu’il reprend l’idée, déjà présente dans la ludique, que les preuves ne sont que les exemplaires d’un ensemble plus général de processus (les desseins, en ludique).
Pourquoi, à côté de preuves authentiques (dites visibles), faut-il des preuves invisibles ? L’un des arguments est que, pour éviter les simplifications outrancières du genre de celle mentionnée plus haut avec les trois propositions A, B, C dont toujours deux parmi les trois sont équivalentes, et qui dépend du principe du tiers-exclu (autre manière d’exprimer la bivalence), il est nécessaire de se garder… du vide ! Les intuitionnistes avaient déjà eu l’idée qu’une proposition consiste en l’ensemble de ses preuves (un peu comme si, dans le discours ordinaire, on disait qu’une assertion a pour contenu l’ensemble de tous les arguments qui la soutiennent), en ce cas, une proposition P est fausse si… elle est vide ! (elle n’a pas de preuve). Mais si nous gardons cette même idée, nous arrivons à ceci : étant donné que la négation en logique classique ou intuitionniste peut s’exprimer par A => ⊥, où ⊥ désigne l’absurde et est bien sûr représenté par l’ensemble vide, et que, selon la conception de Brouwer (et Kolmogorov), une preuve de A => B est toujours une fonction qui, à une preuve de A associe une preuve de B, une preuve de la négation de A est une fonction qui associe à une preuve de A… un élément du vide. Or l’ensemble des fonctions de A dans le vide n’est non vide que si A est vide ! (auquel cas, il y a une seule fonction, vide elle-même). Autrement dit, non-A n’est vrai que si A est faux, et si A est vrai, bien sûr non-A est faux, d’où le tiers-exclu… On échappera à cette trappe si toute proposition est un ensemble de desseins, dont certains seulement sont des preuves. En ce cas, P sera vrai si et seulement si P contient, parmi ses desseins, une preuve visible.
Mais entre temps, on n’aura plus parlé de propositions, mais de comportements, ce sera l’objet de mon prochain billet.
Heloderma suspectum, dit « le monstre de Gila » qui, même mort, mord encore!
(*) En grand cinéphile, Girard fait souvent référence à des films, ici « Le trésor de la Sierra Madre » de John Houston dans lequel figure un monstre qui a la particularité de continuer à mordre même mort. Ce monstre est ici utilisé comme métaphore du scientisme attribué à Hilbert, Russell, Tarski et quelques autres et qui continue à occuper les esprits alors que Gödel l’a mis à mort depuis longtemps.