Critique de Whitehead

champ de lavande – au fond, le Ventoux

Je re-attaque le livre d’Isabelle Stengers, « Réactiver le sens commun ». Attaquer possède deux sens en français, l’un consistant dans la manifestation d’une opposition claire, l’autre, plus modéré, dans le simple fait de se mettre à l’œuvre, comme quand on « attaque » un col à bicyclette (j’attaquerais bien le Ventoux une fois par exemple, mais rassurez-vous : avec un vélo à assistance électrique!). J’attaque donc dans le second sens en attendant de peut-être, s’il y a lieu, attaquer dans le premier. Comme déjà dit dans mon billet précédent, ce livre est une défense et illustration des idées d’Alfred North Whitehead, idées remises au goût du jour et supposées convenir particulièrement à notre époque. Il part de l’axiome selon lequel « opposer les scientifiques à un « public prêt à croire n’importe quoi » – et qu’il faut maintenir à distance – est un désastre politique ». Je veux bien croire en cette idée, je veux bien reconnaître la part d’arrogance qui peut exister dans le discours de certains scientifiques (surtout des scientifiques établis, reconnus, munis d’une aura qui garantirait leur parole) et qui peut conduire à un fossé abyssal les séparant du reste de la population. Je reconnais aussi qu’on a tendance à penser que le grand public est prêt à croire n’importe quoi, et qu’on pense en avoir la preuve à chaque instant lorsqu’on jette un œil distrait sur Facebook ou d’autres réseaux sociaux. Tel affiche sa certitude anti-vaccin, tel autre va jusqu’à nier l’existence des virus, un autre encore se déclare persuadé que tout cela n’est fait que pour enrichir Bill Gates… évidemment sans preuve et sans argument que l’on puisse soutenir plus de trois minutes. Mais dès que j’énonce cette vérité qui me semble aller de soi que la première chose que je demande avant d’accepter une thèse, c’est une preuve ou seulement un argument sérieux… je tombe en porte-à-faux par rapport à ce que défendent Stengers et Whitehead… du moins semble-t-il. Puisqu’il est dit quelque part que le premier devoir du philosophe est de marquer sa vigilance par rapport aux abstractions, aux raisonnements, aux preuves (« l’argumentation ou la preuve ne conviennent pas à la philosophie », p.71). Si l’argumentation et la preuve ne conviennent pas à la philosophie, on se demande bien ce qui lui convient, et, en retour, on se demande à qui ou à quoi peuvent bien convenir la preuve et l’argumentation… Les thèses défendues par Isabelle Stengers ne seraient-elles pas simplement l’incarnation d’un scepticisme sophistiqué ? Auquel cas, elles ont à répondre à l’argument anti-sceptique vieux comme le monde (mon ami Kevin P. me dit qu’il remonte à Platon) selon lequel celui qui soutient que « rien n’est vrai » est pourtant obligé d’admettre le contraire en proposant cette thèse pour vraie… Ici, l’argument doit juste être un peu modifié : si aucune preuve et aucune argumentation ne valent pour établir un fait ou une idée, alors puisque le livre qui le dit est justement une argumentation de cette idée… il ne nous resterait qu’à le refermer ! Nous n’irons pas (ou pas tout de suite) à cette extrémité. Reconnaissons que même lorsqu’un auteur, ou une autrice, expose une idée douteuse, il lui arrive de dire des choses intéressantes.

Alfred North Whitehead

Alfred North Whitehead est sans arrêt présenté comme un grand mathématicien : il le fut sans doute, lui qui a dispensé des cours dont Bertrand Russell a profité, mais quel dégoût des maths s’est emparé de lui pour en arriver à exprimer une telle défiance à l’égard de la discipline ? Sans doute, tel un abbé défroqué, avait-il abandonné depuis longtemps le sens de la rigueur mathématique lorsqu’il s’est mis aux travaux de sa seconde période qu’il a voulu situer sous la rubrique métaphysique. Il n’en reste pas moins que Stengers continue à le nommer mathématicien comme si cette étiquette devait magnifier sa pensée, on conviendra que c’est un peu suspect comme attitude au moment où justement on part en guerre contre l’abstraction… mais enfin… pardonnons.

Maintenant que j’ai lâché mon venin, nous allons essayer de voir les choses intéressantes… avec lesquelles, disons, j’exprimerai plutôt mon accord…

Je crois que l’incompréhension qui existe entre scientifiques et grand public est d’ordre surtout idéologique. Depuis très longtemps (au moins le XVIIème siècle), les sciences sont perçues comme occupant des positions hiérarchiques, avec à la base, celle que l’on pourrait nommer la reine des sciences (si l’on excepte les mathématiques qui ont toujours eu un statut particulier – sont-ce bien des sciences ?) à savoir la physique. D’où il vient qu’aujourd’hui le physicien est toujours présenté avec révérence comme étant le scientifique par excellence (voir par exemple le rôle joué par Etienne Klein dans les médias et dans la réflexion contemporaine) et d’où il vient aussi que la « philosophie spontanée du savant » (pour parler comme feu Althusser) est le physicalisme. La vieille idée positiviste (au sens propre puisqu’elle était celle d’Auguste Comte) prévaut : l’idéal des sciences serait qu’elles se réduisent toutes à la physique. Chimie, biologie, et même neurosciences devraient emprunter les mêmes voies et finalement trouver leur formulation définitive en termes physiques. Dans le dernier cas, celui des neuro-sciences, on connaît les débats déjà anciens, mais qui existent toujours, agitant la « philosophie de l’esprit » : dualisme contre monisme, fonctionnalisme contre matérialisme etc. Les époux Churchland, Paul et Patricia, défendent la thèse connue sous le nom « d’éliminativisme ». En gros, nous ne continuerions à parler des états mentaux en termes « psychologiques » que par commodité, un jour viendra où on pourra complètement se passer de ce vocabulaire en l’ayant remplacé par les corrélats physiques objectifs dans le cerveau des états en question (au lieu de dire « j’ai mal », « ma fibre C est activée » par exemple). Ce jour là, on aura « réduit » les neuro-sciences à la physique. La biologie repose abondamment sur le même schéma : le mystère du vivant serait éclairci le jour où nous aurions enfin pu expliquer « physiquement » les mécanismes de la vie. Evidemment, nous en sommes loin et nous avons de fortes chances d’en rester loin très longtemps (et heureusement je crois!). Nombreux sont les auteurs (Giuseppe Longo est de ceux là en ce qui concerne la biologie, mais aussi Jean-Jacques Kupiec et d’autres) qui avancent que la biologie, ça ne marche pas comme ça…

Paul et Patricia Churchland

C’est bien là que nous tombons d’accord avec Isabelle Stengers (entre autres). Comment connaître la vie, et puis même qu’est-ce que connaître la vie ? (je ne parlerai pas ici de Canguilhem, faute de compétence). Y a-t-il une autre façon de connaître que celle qui consiste à ramener à la physique ? Y a-t-il des obstacles particuliers à la connaissance de la vie qui font que celle-ci ne saurait emprunter la voie d’une mathématisation, ni même celle de « principes abstraits » applicables en tout lieu et en tout temps ? C’est ici que la pensée de Whitehead, relayée par la philosophe bruxelloise, nous intéresse. Et on comprendra aussi que si de tels obstacles existent pour la biologie, alors a fortiori existeraient-ils pour d’autres domaines connexes au vivant comme celui du langage (une mathématisation du langage a-t-elle un sens?) voire même des sciences humaines en général (sociologie, anthropologie…). D’où tout l’intérêt que j’accorde à cette démarche. A-t-on raison de vouloir rendre compte de structures linguistiques ou de structures anthropologiques (par exemple celles de la parenté, selon la démarche immortalisée par Claude Lévi-Strauss) au moyen de structures mathématiques ? (le terme de « structure » a-t-il d’ailleurs le même sens dans les différents usages?).

Alfred North Whitehead doute que les mêmes méthodes puissent s’appliquer à la physique et aux autres sciences, ne serait-ce que, tout simplement, parce que la biologie a affaire avec une réalité – les vivants – dont l’existence n’est pas donnée, comme celle de l’électron ou du proton, mais « continuée au sens d’un accomplissement ». Le biologiste, dit Isabelle Stengers – en fait, elle dit « la » biologiste par parti pris féministe – « ne mettra pas en doute la réalité des vivants parce que elle-même est située par cet accomplissement ». « Elle cherche à comprendre comment cela tient, et plus elle analyse, plus elle s’étonne. Les questions qu’elle apprend à poser ne vérifient pas une hypothèse dérivée d’une théorie, mais dérivent de ce qu’elle observe et qui l’intrigue » (p. 77). On peut méditer là-dessus, bien sûr, se faire la remarque qu’en dépit de ce qui est dit, il y a toujours des idées, donc des hypothèses, qui pré-existent à l’observation, ce qui se passe seulement est que l’on est sans doute plus prompt à rejeter ces idées ou ces hypothèses face à un fait naturel que nous n’avions pas prévu que le physicien n’est prêt à le faire en physique (où là, les hypothèses pèsent d’un poids énorme, du poids peut-être représenté par le coût des expériences – coût à la fois humain, intellectuel et financier ! – qui ont participé à la manière d’échafauder la théorie). Je me souviens avoir entendu sur de tels sujets le philosophe et éthologiste Dominique Lestel lors d’un de ces séminaires LIGC dont j’ai déjà parlé, c’était à propos des études sur les animaux et des surprises incroyables que l’on avait pour peu que l’on refuse les études en laboratoire et qu’on observe les différentes espèces dans leur milieu naturel, en toute liberté. L’intelligence animale à ce moment là se révèle, elle n’est pas bornée comme on a pu l’imaginer auparavant, par « l’absence de langage ».

Contrairement à la manière dont on a pu, par le passé, tenter de réduire le corps vivant à ses éléments physiques, Whitehead a posé l’existence d’entités autonomes, a priori non réductibles. Il les a appelés « organismes », en entendant par là « une entité dont l’existence requiert un maintien à l’existence, dont la réalité est une réalisation continuée, endurante, dépendante de la « patience » de son environnement par rapport à ce que cette réalisation exige d’elle ». Cette réalisation serait de plus « l’accomplissement d’une valeur, celle de la réussite à se conserver soi-même ». Nous sommes ici un peu troublés à cause de notre accoutumance à concevoir une séparation radicale entre faits et valeurs. Il y en aurait donc une, de ces valeurs, qui pré-existerait à notre observation du monde vivant et qui serait peut-être même la condition pour que cette observation soit possible… En plus, on ferait endosser à notre environnement, une autre de ces valeurs, que nous avons coutume de caractériser comme une vertu : la patience… patience de bien vouloir nous accepter tels que nous sommes, de bien vouloir accepter les exigences du maintien de nos vies. Et il en faudrait de la patience, à notre environnement (à la Terre?), pour ne pas réagir plus violemment à ce que nous sommes…

Isabelle Stengers, Nastassja Martin, Guillaume Lebaudy, Vinciane Despret

Pour Isabelle Stengers, mettre le concept d’organisme au cœur de la question ontologique, comme le fait Whitehead, c’est renouer avec le sens commun. « Il n’est, dit-elle, qu’à considérer le succès des histoires d’animaux ». Et de fait, nous avons tous été plus ou moins bouleversés par celles qui sont venues à nos oreilles récemment, qu’il s’agisse de la panthère blanche de Sylvain Tesson, de l’ours de Sibérie tombée sur les épaules de Nastassja Martin, ou, plus proches de nous, des histoires d’élevage de moutons racontées par Guillaume Lebaudy (et des films de Natacha Boutkevitch). Chaque fois, nous avons fait un « Oh ! » de surprise et souvent nos catégories traditionnelles se sont mises à vaciller comme quand Nastassja Martin s’est permise d’affirmer que l’animisme des peuples du Nord était mieux apte à parler de ces expériences que ne l’est notre vision prétendument scientifique. Baptiste Morizot est aussi un penseur de cette tendance, qui nous incite à avoir une pensée hybride à l’approche du vivant, mi-animiste, mi-rationnelle afin d’être plus proches des êtres de nature, l’hybridation n’est-elle pas le propre de la nature quand celle-ci par exemple nous montre, contre toute attente, des hybridations d’espèces que la théorie classique pourtant interdit ? Isabelle Stengers cite également Vinciane Despret qui « demande que les chercheurs posent de bonnes questions aux animaux ». Et ce qui fait vibrer en nous une corde particulièrement sensible, c’est le fait de relever que, notre espèce étant elle aussi animale, ces nouveaux principes d’observation devraient également s’appliquer à nous, pauvres humains qu’une « science » baptisée « sociologie » n’arrête pas de sonder et de découper en strates, catégories, hiérarchies afin d’élaborer, nous concernant, une « connaissance objective » qui sera, dès que prononcée, vouée aux oubliettes parce que les humains que nous sommes refusent profondément, au dedans d’eux-mêmes, d’être ainsi étiquetés et hiérarchisés, et que, de toutes façons, la seule considération de telles opérations dites savantes provoquerait des réactions la faisant voler en éclats…

La philosophe belge est dure avec les sociologues qui se croient tout permis. Cela me rappelle un travail d’autrefois où j’avais été amené à côtoyer des psycho-sociologues (les pires!) dont certains avaient mené un travail d’enquête afin d’évaluer la propension qu’ont des « sujets » en situation difficile (face à un « événement fâcheux » disaient les chercheurs…!) à se laisser délaisser d’objets qui leur sont chers… Ces messieurs allaient dans les hôpitaux et demandaient à des patients prêts à passer en salle d’opération s’ils voulaient bien leur remettre leur montre (!). Et après ça, on remplissait des feuilles de statistiques. Isabelle Stengers, elle, pointe les sociologues enquêtant sur les pratiques addictives : « souvenir de l’époque où j’apprenais à comprendre l’importance des mouvements d’usagers, en l’occurrence celui des « usagers » non repentis ni repentants de drogues illicites, mais surtout souvenir de ma colère à entendre un sociologue souligner le caractère « construit » de ce qu’il pouvait obtenir des acteurs de ce mouvement, bien moins riche en nuances, contradictions, ambiguïtés, disait-il, que le témoignage des « simples consommateurs ». Je me souviens lui avoir craché au visage… ». Les plus sûrs du bon droit des (psycho-)sociologues diront évidemment que tout cela est une question d’éthique, et qu’il suffit d’ajouter des comités d’éthique pour que tout se passe bien, « dans la conformité aux lois ». Je ne crois pas que cela soit si simple… L’éthique conçue ainsi ne fait que censurer (éventuellement), elle n’entre pas dans le cœur de la méthode, or c’est celle-ci qui est viciée quand le chercheur « oublie » sciemment la nature humaine, ou, dans un autre contexte, la nature vivante de son objet.

Est-ce à dire pour autant qu’il faille renoncer aux visées « explicatives » de la science, à une théorisation qui tente de reproduire à l’intérieur d’un modèle l’enchevêtrement des causes et des effets ? Whitehead a toujours eu une attitude sceptique. Il renonce à la « généralité », rien n’est vraiment stable pour lui, ou alors de manière très provisoire, temporaire, comme quand il caractérise une société comme « ce qui, à travers le changement, maintient, ne serait-ce qu’un court laps de temps, la continuité d’un style, d’un caractère » et qu’il dit que « appartenir à une société, pour les occasions actuelles, c’est se déterminer sur un mode conforme à cette continuité » mais que « le respect de cette conformité, rien ne les y oblige, ni même ne le leur demande ». On est loin des catégories quasi essentialistes dont usent les sociologues. Un fait, pour Whitehead, « n’illustre aucune généralité ». On comprend évidemment qu’avec de tels principes, on soit loin de toute théorisation excessive… Certains même pourraient dire : loin de toute rationalité. Car en effet où peut bien venir se loger la rationalité dans toute cela ? Il semble que le métaphysicien ait compris l’objection : « notre doctrine semble avoir détruit le fondement même de la rationalité ». Comme les mathématiques et la logique se fondent pour lui sur une sorte de permanence (les nombres restent stables en dépit des opérations qui les affectent), elles seraient inapplicables. Comment se fait-il que Socrate, dont on déduit qu’il est mortel à partir des prémisses fameuses selon lesquelles il est un homme et que tout homme est mortel, ne soit pas affecté par les prémisses qu’on lui applique, que le Socrate qui sort mortel de ce syllogisme soit le même que celui qui est entré homme dans la prémisse ? On peut sourire de cela, qui reste… éminemment théorique, et pourtant il est légitime d’y accorder une attention. D’où vient en effet le syllogisme ? qu’est-ce qui explique sa force ? On en vient de nouveau à mes billets proposés il y a quelques semaines sur ce blog, inspirés par les travaux de Jean-Yves Girard. J’oserai à peine dire que si Whitehead avait connu la logique linéaire, il aurait été moins sceptique (!) car, justement, celle-ci est l’exemple d’une théorie logique où les prémisses sont affectées par les procédures qui s’appliquent à elles (et pour cause, puisqu’elles sont consommées, non utilisables une nouvelle fois, ce qui résolvait, entre parenthèses, le paradoxe de « l’ensemble des ensembles qui ne s’appartiennent pas à eux-mêmes », l’ensemble qui apparaissait dans sa première occurrence n’étant plus le même que celui qui apparaissait dans la seconde!). Il n’y aurait donc pas, à vrai dire, d’objection à ce que le raisonnement logico-mathématique s’applique à des entités fluctuantes, à des processus, davantage qu’à des constantes ou à des états stables. On ne serait pas forcément astreint à ce que la rationalité soit limitée, comme le prétend Whitehead, à la gestion des analogies ! (« Le fait que nous ne puissions expliquer ni les sociétés, ni le caractère qu’elles maintiennent, ni la façon dont elles cessent de tenir ne nous situe pas dans une réalité inintelligible. Nous procédons par ce mode d’abstraction qu’on appelle « analogie », repérant des ressemblances et des distinctions parmi la diversité »).

La raison réduite à la gestion des analogies, c’est peu de choses. Nous disposons d’un outil, les mathématiques, qui est d’une grande puissance pour générer des analogies, pourquoi faudrait-il s’en priver ?

On devine évidemment que le reproche fait concerne une utilisation des mathématiques qui serait comme un plaquage sur le réel, forçant celui-ci à ressembler au modèle quand bien même il s’en éloignerait. Erreur fatale en effet de bien des travaux de mathématiques appliquées. Mais si l’on suit un mathématicien comme Alain Connes (pour peu qu’il nous soit accessible…) on réalise que le travail du mathématicien n’est pas celui-là, que, concernant la physique, il est de plain pied en elle pour décrire des modèles d’univers qui sont au cœur de la réflexion du cosmologiste qu’aucune autre description ne pourrait procurer.

Alain Connes

Tout ceci donnerait donc plutôt une envie de se lancer dans un plaidoyer pour l’abstraction. Celle-ci étant l’une des facultés essentielles de l’esprit humain, pourquoi faudrait-il s’en méfier plus que d’autres ? Se passer de l’abstraction et des raisonnements qu’elle permet, serait comme se passer de marcher quand on a des jambes. Est-ce que l’on refuse la bicyclette au principe qu’elle est en elle-même une magnifique abstraction du mouvement ? Longo et al., dans le premier chapitre de « Bifurquer », disent le génie de Galilée quand il énonce qu’un mobile laissé à lui-même et soumis à aucune force, loin de rester immobile, se meut selon un mouvement rectiligne uniforme : c’est grâce à cette abstraction, qui n’est perçue par personne, que peut découler la description de tous les autres mouvements, ils la rapprochent de l’affirmation posée dès le premier article de la Déclaration des Droits de l’Homme et du Citoyen : « les hommes naissent et demeurent libres et égaux en droit » qui est une abstraction magnifique car contraire à tout ce que chacun peut percevoir autour de soi, et qui pourtant « modèle les organisations sociales en fonction d’un nouvel état de droit » et fournit un outil indispensable car s’en déduisent toutes les luttes pour davantage d’égalité sociale et de liberté.

Le point de vue de Whitehead fait comme si en nous livrant à l’abstraction, nous abandonnerions de ce fait le contact avec le réel, alors que le processus d’abstraction est lui-même dans le réel comme faisant partie de notre esprit, il participe du réel au même titre que d’autres processus, il conduit à une opérationnalité de la raison qui mène à la science, ce dont nous n’avons pas à rougir. A condition de ne pas céder au scientisme qui est une visée simplificatrice et fausse de l’aventure scientifique.

Publié dans Philosophie, Science, Société, Uncategorized | Tagué , , , | Laisser un commentaire

Sens commun ou intelligence collective?

C’est à croire que tout ce que je lis me ramène à ça : comment faire exister une intelligence qui serait apte à comprendre ce que nous avons du mal à comprendre dans l’univers, mais aussi dans notre monde social, dans notre humanité, une intelligence qui permettrait enfin de trouver des solutions à ce qui nous menace dans le futur très proche (changement climatique, pénurie de ressources dont l’eau, guerres, pandémies…). Dans les billets précédents, j’ai suivi la voie proposée par le collectif « Internation » (Stiegler, Longo, Montévil et al.) qui prétend que l’intelligence est reliée à l’entropie, donc au cosmos, étant une « néguentropie », autrement dit une possibilité, la seule peut-être, de contre-carrer l‘évolution vers une entropie croissante. Cela signifie que non seulement l’intelligence serait nécessaire : qui en douterait ? mais qu’en plus, sa seule existence contribuerait à réduire la vitesse avec laquelle nous allons à notre terme : chaos et destruction. Il y aurait une sorte de performativité de l’intelligence : dès qu’elle se montre, elle agit (quand penser, c’est faire). Des discutants sur FB (le jeune philosophe Jean-Louis Vuillerme en particulier) me font remarquer que nous sommes loin d’atteindre le moment où l’énergie aurait disparu signant notre fin : le soleil est là pour longtemps encore, et, dit J-L. Vuillerme : « l’énergie solaire restera disponible sur Terre bien au-delà de la disparition de l’humanité, quoiqu’elle fasse ». Cela est vrai, bien sûr. Mais le problème avec l’énergie n’est pas tant son existence là ou ailleurs que la possibilité de l’utiliser et de la stocker. Si le problème de l’entropie ne se pose pas dans l’absolu, il se pose néanmoins pour tout système qui ne parviendrait pas à utiliser l’énergie dont il dispose, disons sous forme … d’entropie relative (si cela a un sens). Toutefois, je veux bien reconnaître que l’argument « par l’entropie » n’est pas décisif, voire même simplement, qu’il n’est pas nécessaire. Même sans lui, les problèmes relatifs à l’avenir de l’humanité et à la disparition des espèces suffisent en eux-mêmes à souhaiter accélérer la marche de l’intelligence.

Et alors la question se pose : si son niveau nécessaire ne peut être atteint dans l’enceinte d’une étroite enveloppe individuelle, ne faut-il pas passer à un stade trans-individuel ? L’idée n’est pas neuve. Kevin P. me signale les travaux de Pierre Lévy sur l’intelligence collective qui datent déjà d’un bon nombre d’années. Ils mettent en question la capacité qu’aurait l’espèce humaine (voire… d’autres espèces vivantes ? Toute espèce vivante?) à collaborer pour faire émerger des solutions nouvelles. La problématique des conventions citoyennes, dont l’une a agité la vie publique récemment en France, met particulièrement en avant ce type de question (et peut me chaut que l’on critique ses résultats ou que l’on fasse au pouvoir le procès d’intention de les ignorer).

Jusqu’à présent, on a considéré que la production intellectuelle authentique était du ressort des seuls « autorisés », de ceux et celles qui sont passés par les canaux des études supérieures validées par des diplômes, qui incarnent une certaine professionnalisation de la science et plus généralement du savoir, alors que, semble-t-il, si l’on accomplissait des efforts intenses d’éducation et d’information auprès du grand public, celui-ci serait capable d’émettre des idées qui jusque là faisaient défaut, capable donc de s’emparer lui-même de son destin. Noam Chomsky a souvent fait la réflexion que les personnes ordinaires étaient capables de performances intellectuelles tout autant que les savants et les décideurs, mais que le seul problème était qu’ils ne les mettaient au service que d’objets secondaires. Par exemple, ils déployaient des ressources mentales étonnantes pour commenter… des matches de base-ball. Ce non-accès aux thèmes importants leur était barré, donc, non pas par un manque d’aptitude mais par une division politique des tâches.

J’ai regardé récemment la vidéo d’une conférence donnée par le cosmologiste et astrophysicien David Elbaz faisant le tour des obstacles rencontrés par toutes les tentatives de compréhension de l’univers, que l’on essaie d’appliquer la théorie des cordes, celle des super-cordes, celle de la gravité quantique à boucle, de la supersymétrie, que l’on envisage une anti-gravité ou que l’on aille même jusqu’à suggérer que notre univers ne serait qu’un hologramme (donnant tout à coup de la substance aux théoriciens d’un univers plat – si ce n’est de la terre plate!). A la fin, désolé, il s’adressait au public nombreux qui était venu l’écouter en suggérant que, finalement, des auditeurs suffisamment éclairés des principes de base pouvaient aussi bien participer au développement de la science. Cela sonnait comme un appel au secours.

Sur ces entre-faits, tombe entre mes mains le livre d’Isabelle Stengers, « Réactiver le sens commun », sous-titré : « Lecture de Whitehead en temps de débâcle ». Je connais très peu Whitehead, juste assez pour savoir qu’il collabora avec Bertrand Russell pour l’écriture d’une des bibles logiques des temps modernes : les Principia Mathematica, bible dont on peut dire aujourd’hui qu’elle reposait sur des bases biaisées puisqu’on cherchait à asseoir les fondements des mathématiques là où l’on sait maintenant que la problématique des fondements est illusoire. Le fait est qu’il semble y avoir une longue distance entre ses premiers travaux et ce qu’ils sont devenus par la suite. Sir Whitehead serait devenu une sorte de rebelle. Et cela fait bien les affaires d’Isabelle Stengers qui sans doute elle aussi souhaiterait être considérée comme une rebelle…

Je ne suis pas a priori partisan du « sens commun » dont chacun sait combien il peut être mis en défaut, comment aussi il peut s’avérer prisonnier de préjugés et d’affects (le poussant par exemple à valoriser exclusivement ce qui rassure ou « donne de l’espoir »), « sens commun » qui recouvre souvent ce qu’autrefois on nommait « idéologie » c’est-à-dire cette tendance spontanée que l’on a à interpréter les faits dans un sens dominant (« l’idéologie dominante est l’idéologie de la classe dominante » récitait tout bon marxiste des années soixante…). Le sens commun n’est-il autre chose après tout que l’ensemble des poncifs qui scandent ce que Stengers appelle avec beaucoup d’emphase « notre rumination », comme elle décrirait un troupeau de vaches en accordant le plus grand respect à leur fonction digestive. Le sens commun semble aussi se recouper avec cette « découverte » de l’ère covidienne que l’on a baptisée l’ultracrépidarianisme… se sentir toujours autorisé à aller bien au-delà de son domaine de compétence pour formuler une opinion, et affirmer celle-ci avec d’autant plus de force que, justement, notre compétence est plus faible. D’autres ont parlé d’effet de Dunning-Kruger pour désigner un nouveau biais cognitif qui se traduit par une sur-confiance dans ses capacités intellectuelles qui serait d’autant plus forte, là encore, que celles-ci n’auraient pas donné lieu, jusque là, à des preuves notables de leur efficience…

Mais peut-être cette méfiance légitime occulterait à nos yeux d’autres propriétés du sens commun, un caractère plus noble de celui-ci, moins relié aux idéologies et aux dogmes, plus centré sur ce qu’il y a en nous d’expression inévitable d’un ressenti. Il faut essayer de faire crédit à ces thèses, appliquer une sorte de principe de charité à qui vient aujourd’hui devant nous plaider les mérites dudit sens commun, et je veux bien tenter l’expérience, d’autant que j’ai toujours voulu avoir de moi l’image de quelqu’un prêt à se remettre en cause. En somme, essayons de penser que ce « sens commun » est déjà une incarnation de cette recherche d’intelligence collective ou trans-individuelle dont je parlais plus haut.

Isabelle Stengers débute son livre par une citation de Whitehead (extraite de Modes de pensée, un ouvrage qu’il écrivit en 1938 et ne fut traduit en français qu’en 2004) où il est dit que « Socrate passa sa vie à analyser les présuppositions courantes du monde d’Athènes » et « qu’ il reconnut explicitement que sa philosophie était une attitude face à l’ignorance ». Phrase banale, dira-t-on, mais qui étonne la philosophe : pour elle, c’est une surprise. Sans doute s’attendait-elle à mieux. A quoi alors ? Eh bien elle s’attendait à ce que Whitehead ne balaie pas la question en rejetant immédiatement les croyances et fausses assurances des Athéniens dans la simple ignorance. On pourra bien sûr s’étonner : Socrate dialoguait-il vraiment avec le citoyen athénien ordinaire ? Ne le faisait-il pas plutôt avec des citoyens bien particuliers, les sophistes (comme l’étaient Protagoras, Hippias ou Gorgias). Mais Stengers fait comme si les propos que Socrate déconstruit au fil de ses dialogues étaient bel et bien ceux tenus par le tout-venant, le citoyen athénien. Or, dit-elle, « les citoyens athéniens n’étaient pas ignorants. Ils savaient tout ce qu’il y a à savoir »… Ceci est à voir, bien entendu… (il en va souvent ainsi au long des pages de ce livre : affirmer, proclamer, présenter comme des évidences ce qui toujours nécessiterait des preuves, des argumentations. Défaut involontaire ? Non, une attitude revendiquée, fondée sur la conception de la philosophie exposée par Whitehead. Celui-ci ne dit-il pas (paraît-il) que « l’argumentation ou la preuve ne conviennent pas à la philosophie » ! – nous reviendrons sur ce point plus tard -). Mais cela laisse présager de ce que sera « l’argumentation » (car il en faut bien une, ne lui en déplaise!) de Stengers. Un peu comme si le savoir était déjà là, dans le fond, et qu’il n’y avait plus qu’à savoir le ramasser, l’extraire des têtes des gens.

Or, rien n’est moins sûr évidemment. Un point important développé par Stengers / Whitehead est la méfiance envers l’abstraction, une attitude dont il faut avouer qu’elle est très répandue dans la population. Si l’on en venait à promouvoir ce que les deux auteurs appellent « le sens commun » (sans que jamais ils ne le définissent vraiment d’ailleurs) alors sans doute faudrait-il valoriser un autre type de connaissance que celui qui est fondé sur l’abstraction ou, plus précisément, sur les modes d’abstraction, étant entendu que chaque époque aurait le sien (quelque chose comme une épistémé à la Foucault peut-être) et que la tâche de la philosophie serait d’exercer sa vigilance à leur encontre. Tout mode d’abstraction (on pensera ici à la modélisation dont il était question ici il y a deux semaines) laisse de côté une partie de l’expérience, qui n’est jamais prise en compte – du moins est-ce ce que prétendent nos auteurs. Pour Whitehead, « l’argumentation et la preuve ne conviennent pas à la philosophie, car, qu’elles soient scientifiques, juridiques ou autres, toutes deux relèvent d’un mode d’abstraction particulier et doivent leur pouvoir à tout ce que ce mode d’abstraction leur donne le droit d’omettre ». (p. 28).

Y a-t-il vraiment moyen de faire autrement ? La science est la science, avec ses forces et ses faiblesses. Comme dit déjà sur ce blog, Schrödinger autrefois se rendit à l’évidence – et cela avant les psychanalystes lacaniens – que tout ne peut être dit, que la Vérité ne s’énonce pas, car il y a toujours un reste. Et j’ai dit également ici que c’était justement sur ce reste que pouvait s’édifier l’art et la poésie, et que de ce point de vue là, la poésie est connaissance, elle aussi, mais connaissance d’une autre nature, peut-être une connaissance concrète. Alors… faudrait-il lire les suggestions de Whitehead comme un plaidoyer pour la poésie ? Pas vraiment, en réalité. Si « la visée ouverte et affirmée de la philosophie devrait être d’activer les dimensions de l’expérience que nos modes d’abstraction perceptifs et linguistiques omettent », Whitehead n’en déclare pas moins que la qualité poétique des énoncés philosophiques n’est pas nécessaire. On pourra, dit-il, se contenter d’énoncés prosaïques pourvu… « qu’ils aient le pouvoir de faire vaciller la conscience » ! Ainsi, dit-il :

Notre jouissance de l’actualité est la réalisation d’une valeur, bonne ou mauvaise. C’est une expérience de valeur. Son expression fondamentale est : Attention, voici quelque chose qui importe ! Oui, c’est l’expression la meilleure – le premier vacillement de la conscience révèle quelque chose qui importe.

c’est là décrire notre expérience subjective, et qui ne saurait se traduire qu’en poésie. Mais non, il ne faut pas confondre poésie et sens commun. Même si le poète, en l’occurrence Pierre Reverdy, dit que [L]es sentiments [du poète] sont à peu près ceux de tout le monde (Cette émotion appelée poésie)..

La vision de la philosophie du métaphysicien ami de Russell n’assume donc pas d’être « poésie » tout en visant un objectif semblable. Elle serait dans un entre-deux :

Le sens commun, ruminant les aspects de l’existence, les remet entre les mains de la philosophie pour que celle-ci les élucide en leur donnant une compréhension cohérente

c’est dire qu’elle vise une compréhension cohérente. De quoi ? Et en quoi celle-ci peut être possible ? Je tenterai de parler de cela dans mes prochains billets. Que faire de ce « sens commun » si nous n’en faisons pas de la poésie (et surtout – quand même ! – si nous refusons de le rabattre sur les flots d’idiotie qui parcourent le débat médiatique !) ? S’en servir comme point de départ, veut sans doute dire Isabelle Stengers, autrement dit ne jamais faire comme si l’on partait de rien. On dira alors que c’est une vieille rengaine de la pédagogie moderne. Oui, bien sûr les élèves ont déjà des représentations de ce dont on leur parle et il ne faut pas les ignorer. C’est la lubie des maths modernes qui a voulu passer outre, tâchant d’édifier sur des sols vierges une pensée abstraite qui serait juste parce que « logique » : nous retombons dans les pièges de la transparence dénoncés par J-Y. Girard, et là, on peut rejoindre l’ex-co-autrice avec Prigogine d’un livre sur le chaos.

Les sols sur lesquels se déploient les savoirs ne sont jamais vierges, encore faut-il savoir comment tirer partie de cette préexistence de notions. En explorant cette question, on en vient à aborder un continent vague et flou mais qui mérite d’être parcouru, c’est sans doute ce que Whitehead baptisait « sens commun », et qui se rapproche, de fait, d’une sorte de métaphysique. Nous reviendrons sur ces points plus tard. Il faut juste noter pour conclure que se trouve bien situé en perspective ce que déjà nous avons déjà rencontré avec les conventions : « ce dispositif (les conventions citoyennes tirées au sort) rend possible que des gens « ordinaires » a priori « ignorants » se transforment en un groupe devenu capable d’entendre des experts se disputer sans chercher eux-mêmes désespérément « la bonne réponse », « la position légitime », de telle sorte qu’ils en arrivent à formuler des questions, des propositions et des objections dont la pertinence et la lucidité sont susceptibles de faire bégayer les experts. » (p. 71)

On l’aura donc compris, il ne s’agit pas de prendre pour argent comptant la première élucubration venue, de faire foi aux fake news et autres alternative truths, mais d’attirer l’attention sur ce fait énorme et assez évident en quoi consiste aujourd’hui le rejet de la science par une large partie de la population qui n’agit ainsi, dit Stengers, que par « une sombre volonté de ne rien entendre, de prendre leur revanche contre « ceux qui savent » ». Le monde scientifique se serait beaucoup trop éloigné de ce qu’il est convenu d’appeler « le grand public », rejetant celui-ci nécessairement dans l’ignorance, et campant sur des positions d’arrogance à partir desquelles il est devenu trop facile de renvoyer l’interlocuteur « dans ses vingt-deux mètres » comme on dit un peu vulgairement. Par exemple, malgré tout l’immense respect que j’éprouve à l’égard d’Etienne Klein (un remarquable vulgarisateur de la physique), je vois parfois dans ses propos une incompréhension abyssale dont je ne sais si elle est involontaire ou calculée, à l’égard de certains philosophes exprimant ce qu’on appelle une « pensée critique »… Les physiciens devraient avoir compris que, décidément, non, leurs vérités ne sont pas définitives, même si elles ont souvent un lieu stable d’exercice (mais stable pour combien de temps?). L’exemple de la gravité, souvent invoqué, satisfait il est vrai… le sens commun (!), il est certain que si nous sautons par la fenêtre, nous allons nous faire mal, mais qu’est-ce que la gravité ? Quand Newton l’introduisit comme force, cela fut à l’origine d’un âpre débat avec les cartésiens qui ne voulaient pas entendre parler de ce genre de notion quelque peu « mystique ». Einstein l’a caractérisée comme effet d’une géométrie de l’espace… aujourd’hui certains sont prêts à douter qu’elle existe (voir encore ici la vidéo de la conférence de D. Elbaz). J’ai entendu Klein, dans un interview, se moquer d’une « philosophe de la Sorbonne » et sous-entendre qu’elle était d’une ignorance crasse (et vous vous rendez compte, payée par nos impôts!) parce qu’elle avait eu l’audace de soulever ce genre de question dans une émission de France-Culture où elle débattait avec lui et avec le sociologue Gérald Bronner. Après vérification, il s’agissait de Bernadette Bensaude-Vincent que je connais un petit peu (elle était la présidente de la commission du CNU dans laquelle je siégeais au début des années deux mille), laquelle est loin d’être une idiote… mais ainsi va le débat public, avec souvent plus de postures que d’intentions de débattre… avec de vrais arguments.

Publié dans Philosophie, Science, Société, Uncategorized | Tagué , , , , , , | 1 commentaire

Ludisme et néguanthropie

Changer le web… ou bien revenir au début ? Si l’on se base sur ce que nous avons vu dans les deux précédents billets, on conçoit qu’il ne soit nullement envisagé de « revenir en arrière », d’ignorer une technologie dont des avantages ont pu être constatés… Dans l’optique d’Ars Industrialis (ancien nom du collectif fondé par Stiegler), une technologie est un pharmakon, autrement dit peut aussi bien être poison (si mal employée) ou remède. Dans l’état actuel des choses, l’Internet donne lieu à des applications toxiques. Autrement dit la technologie est mal employée. Daniel Ross, dans le chapitre 10, en trace un tableau éloquent. L’emploi du mot grec pharmakon, me dit-on, trouve son origine chez Derrida, c’est ce dernier qui aurait d’ailleurs introduit Stiegler dans le monde intellectuel. Cela n’a qu’un intérêt anecdotique et pourtant certains de mes dialoguants (sur FB) y tiennent… En fouillant un peu les ragots répandus sur la toile, on constatera que Stiegler est très attaqué : certains lui reprochent son jargon, ses néologismes parfois construits sur des exportations de termes hors de leur domaine d’origine. Je trouve surtout qu’il écrit affreusement mal… pour certains, cela peut paraître un crime, ce que je comprends, mais moi, je n’en fais pas un crime. Je note aussi que les mots d’entropie, de néguentropie etc. qui sont certes repris au langage de la physique (de la thermodynamique plus exactement) ont été employés avant Stiegler par des scientifiques évoqués la fois dernière : Alfred Lotka et Wassili Vernadsky. Ils ne me semblent pas être hors de propos dans le contexte écologique. Je ne suis pas un « fan » de Stiegler, que je n’ai abordé sérieusement qu’à partir du livre collectif qui vient de paraître (« Bifurquer »). Dans ce livre, comme je l’ai déjà dit, interviennent d’autres personnalités, comme Giuseppe Longo, Daniel Ross et Alain Supiot. Une lettre est publiée en exergue, qui émane de Jean-Marie Le Clézio. Il est vrai que cette lettre ne dit pas grand-chose en rapport avec le contenu des chapitres de ce livre. Néanmoins, Le Clézio n’aurait pas ainsi donné une caution s’il avait eu quelque doute sur le sérieux de l’entreprise. Certains chapitres parlent d’une expérience d’économie contributive effectuée en Seine Saint-Denis, sur le territoire de Plaine Commune. Il ne me semble pas possible d’évaluer le sérieux de cette expérience, présentée de façon assez nébuleuse et sans données précises… c’est peut-être une arnaque.

De la plus-value aux réseaux sociaux

Pour expliquer le rôle pris par les réseaux sociaux en tant qu’organes exosomatiques dans notre société contemporaine, Daniel Ross part d’une thèse dont je sais qu’elle est aujourd’hui contestée (surtout par des philosophes que je qualifierai de « néo-libéraux ») à savoir la baisse tendancielle du taux de profit, « découverte » par Marx, parfois rapprochée justement de la notion d’entropie (cf. Mark Alizart, dans son livre « cryptocommunisme » commenté ici) et en laquelle le philosophe barbu voyait une contradiction fondamentale du capitalisme. Si l’on accepte les prémisses marxistes(*), c’est-à-dire la manière dont le capitalisme produit de la valeur en extorquant un surtravail à ceux qui produisent, ce que l’on appelle la plus-value, il arrive toujours un moment où le taux de plus-value baisse (les producteurs demandent à être mieux payés, la valeur objective de la marchandise baisse parce que les consommateurs ont fait le plein, n’en veulent plus, ou bien aussi les prix baissent à cause de la concurrence), il faut alors compenser par quelque chose. Ce quelque chose a été vu sous l’aspect du colonialisme (manière de trouver une main d’oeuvre et des matières premières meilleur marché), de l’impérialisme (suite du précédent), de la globalisation (on l’a vu particulièrement avec la délocalisation durant ces dernières décennies, dont on paierait paraît-il le prix aujourd’hui…), mais il a pu aussi être vu sous l’aspect des pressions exercées sur les consommateurs : publicité et marketing, rôle des médias (télévision) pour accentuer l’efficacité de la publicité (les fameux espaces libres dégagés dans nos têtes par la télé pour mieux y fourguer les produits à vendre…) etc. Un pas a été franchi avec les réseaux sociaux du genre Facebook ou Instagram qui, non seulement, diffusent de la publicité mais en plus ingurgitent nos données personnelles pour les traiter immédiatement en escomptant, par ce fait même, manipuler nos désirs, nos tendances voire même nos opinions politiques. Ross, Stiegler et al. insistent sur l’extrême rapidité des processus en jeu, une sorte de communication / manipulation en temps réel (et même disent-ils, pour choquer l’imagination, à la vitesse de la lumière, voire plus si possible (!) cela pour insinuer que nos envies et désirs seraient déterminées à notre insu avant même que nous n’en ayons conscience – sûrement ici, se sont-ils fait influencer par les expériences de Libet). Cela n’est pas très nouveau… mais ce n’est pas une raison pour l’ignorer. Là où les choses se compliquent, c’est lorsqu’il faudrait dire comment intervenir pour qu’il en soit autrement. Des arguments existent en faveur du capitalisme qui, à l’instar de la démocratie serait… le pire système à l’exclusion de tous les autres ! Après les multiples tentatives d’instauration d’autres systèmes économiques (« communistes » par exemple) qui se sont toutes soldées par des échecs, on voit mal comment on pourrait passer à autre chose…

Et pourtant… les ressources s’épuisent, le risque de catastrophe est grandissant.

Prendre en compte l’entropie

Pour Stiegler et al., cette contradiction réside dans le fait que jusqu’à présent, nous avons toujours pensé l’économie dans un cadre « newtonien », c’est-à-dire cette abstraction d’un espace infini, sans histoire et sans « frottements » qui devrait nous permettre d’attendre avec quiétude l’édification d’un équilibre durable (je me souviens avoir un jour entendu Longo, intervenant dans un séminaire LIGC à Carry-le-Rouet, montrer que toute recherche d’équilibre était un mythe). Or, la thermodynamique nous a enseigné autre chose et nous savons que même l’univers a une histoire. D’où le fait d’en appeler à une nouvelle économie prenant très au sérieux la notion d’entropie.

Les thèses de Stiegler et al. ne sont pas « anti-capitalistes », elles essaient seulement de (re)mettre sur les rails un système qui semble de plus en plus déjanté. De ce point de vue, on pourra les mettre en relation avec celles d’un Stiglitz. Partir du concept d’entropie pour cela ne semble pas absurde : cela permet de mettre l’accent sur un aspect négligé qui n’est pas en lui-même contradictoire avec le capitalisme, bien au contraire, puisqu’il consiste dans le fait, déjà signalé par Lotka et d’autres, que l’humain est capable d’une pensée, est le siège d’une conscience (voir aussi sur ce sujet les balles analyses de Francis Wolff, commentées ici) qui, si on leur en laissait la liberté, pourraient créer de l’information, dont on sait qu’elle est justement le contraire de l’entropie.

Longo et ses associés s’attachent à distinguer fort justement l’intelligence « vivante », celle que l’on trouve dans les espèces vivantes jusqu’à l’être humain bien entendu, et l’intelligence non vivante, celle qui se trouve liée aux dérivés du silicium (pour ne pas employer le mot « d’intelligence artificielle »). La première est basée sur une faculté que nous ne devrions pas oublier : l’attention, laquelle est dépendante de la conscience. Les ordinateurs n’ont pas ce problème, dès qu’on les branche, ils sont « attentifs » : autrement dit, ils utilisent immédiatement toutes leurs ressources pour résoudre les problèmes qu’on leur pose. Mais je ne sais pas vous, mais moi, dès que je me repose un peu, mon esprit divague, je ne saurais prédire l’état dans lequel il sera à l’issue des dix secondes à venir… autrement dit mon cerveau est instable, il n’est pas plus « résoluble » comme système que ne l’est le problème des trois corps mis en avant par Poincaré. Cette instabilité n’est peut-être pas une faiblesse mais une force. En tout cas, on est absolument incapable de la réaliser dans un système artificiel… C’est de cette instabilité que viennent probablement la rêverie, l’art et la poésie qui sont des composantes indissociables de notre esprit. C’est là que notre métabolisme échappe au mécanicisme.

Poincaré et le problème des N corps

Une autre informatique?

Quant au web, aux réseaux sociaux et tout ce qui en dérive, relevons ce passage du chapitre premier :

Dans le contexte contemporain, où l’exosomatisation, devenue de part en part technologique (et non seulement technique), est désormais pilotée par le marketing, il ne suffit pas qu’une technologie ait trouvé son marché pour qu’elle puisse être considérée comme bénéfique. Il est également nécessaire de trouver les modalités positives dont cette technologie est réellement porteuse, et les pratiques et prescriptions sociales qui sauront limiter sa toxicité, que l’on appellera son anthropie, et intensifier sa curativité, que l’on appellera sa néguanthropie.

On pourrait bien sûr se demander comment y parvenir, quelle volonté serait assez forte pour détourner l’évolution des technologies vers autre chose que ce qu’elles sont aujourd’hui devenues : « une exploitation systémiquement addictive des circuits dopaminergiques de la récompense » (!) (p.50). Les réponses apportées au chapitre 7 (« design contributif et technologies numériques ») sont, avouons-le, assez faibles. Ici apparaît l’idée juste selon laquelle, au début de cette ère que nous vivons, traversée par le numérique, on se demandait encore s’il fallait ou non tout miser sur l’automatisation. Je me souviens que, sur le problème de la traduction automatique, par exemple, devant les immenses difficultés qui ne cessaient pas d’apparaître (tant que l’on continuait à s’en remettre au savoir linguistique et qu’on n’avait pas encore trouvé l’échappatoire permis par le Big Data et le Deep Learning), certaines voix raisonnables émettaient l’idée que l’on ne devait pas viser une traduction entièrement automatisée, mais plutôt une aide efficace à la traduction : le traducteur humain se mettait à la tâche et lorsqu’il butait sur une difficulté (mot inconnu par exemple) il pouvait ouvrir une petite fenêtre sur son écran qui lui indiquait plusieurs solutions possibles. Les propositions faites dans ce chapitre 7 vont dans cette direction (logiciels d’aide à la prise de notes, d’annotation…) et c’est pour cela qu’au début de ce texte je formulais ma question sous la forme « changer le web ou bien revenir au début? », mais elles ne sont guère attractives, du moins de la façon dont elles sont présentées. Ailleurs apparaît la vraie question, qui réside dans une évolution de l’informatique qui rende envisageable un retour vers cette orientation et qui soit véritablement convaincante. Cela repose sur une sorte de révolution dans notre conception du jouet informatique.

Vers une intelligence trans-individuelle

Ici, vous voyez pointer le bout de mon nez et le lien que j’aimerais établir avec mes billets précédents sur la logique. Ces billets n’avaient pas que pour but de proposer de résoudre autrement la question des fondements des lois logiques, mais compte tenu du lien entre logique et informatique théorique, ils concernaient aussi cette dernière discipline. Ce que Girard a mis en lumière très tôt dans ses travaux de logique linéaire, puis de ludique, puis de géométrie de l’interaction et maintenant de syntaxe transcendantale, c’est que la problématique de l’interaction (démarrant avec le simple couple question – réponse) était à la source de la logique et donc de l’informatique théorique.

J’ai déjà parlé abondamment de la ludique, une approche qualifiée de « pré-logique » qui se basait à la fois sur la théorie de la preuve et sur la théorie des jeux. Dans les années 10 de notre siècle, un groupe de recherche que je coordonnais a tenté de mettre en application ses principes dans les domaines qui nous intéressent et qui vont de la théorisation du langage aux comportements sociaux et à l’éthique. Vaste entreprise qui est restée inachevée et dont j’aimerais tant qu’elle soit reprise un jour peut-être par une nouvelle génération de chercheurs… L’un des buts (non atteint) était justement l’édification d’outils d’authentique dialogue ou d’aide au dialogue. Il est assez évident pour tout un chacun que rares sont les discussions et conversations menées à leur terme, soit par flemme, soit par incompétence et ignorance. Il est également évident que notre intelligence, en tant que système individuel, se heurte à des limites : limites du savoir disponible pour une seule personne, limite dans la maîtrise du raisonnement à longue distance (quand une conclusion découle de prémisses après une très logue chaîne d’inférences). Ces limites peuvent être repoussées par une mise en coopération contributive des « agents » (remarquer qu’en utilisant la notion d’agent je m’autorise à m’éloigner quelque peu de celle « d’individu », beaucoup trop centrée et fermée à l’intérieur d’une enveloppe corporelle).

On pourrait envisager des outils qui relancent le débat et éclairent les questions abordées sous des aspects que peut-être ignorent les participants. Ce serait alors ouvrir des voies nouvelles à l’intelligence… On questionnerait un réseau de systèmes qui, non seulement pourrait nous renvoyer des réponses (comme le fait un vulgaire Google) mais en plus nous renverrait d’autres questions, construirait des hypothèses à partir des interactions ayant déjà eu lieu etc. permettant aux utilisateurs de se faire leurs propres idées et de nourrir les débats avec d’autres participants. Et en plus, ceci serait en temps réel, autrement dit ne considérerait pas le « savoir » comme figé à un instant donné (sur le mode d’une encyclopédie), mais comme un système en déséquilibre constant qui évoluerait sans cesse en fonction des interactions concrètes ayant lieu avec d’autres participants.

La Convention Citoyenne sur le Climat, première tentative moderne de dégager un ensemble de propositions à partir de la mise en oeuvre d’une intelligence collective.

Une des innovations sociales récentes qui a été à mes yeux un acquis à porter au crédit de notre actuel président a été la mise en place de la Convention Citoyenne sur le Climat. Beaucoup a été dit à ce sujet et il est inutile de revenir en détails sur la démarche. Rappelons simplement qu’une telle commission n’apporte des conclusions efficaces que si ses membres sont abondamment informés. Un grand pas a été accompli sans aide technologique particulière (un défilé d’experts humains, mais cela n’ouvrait-il pas la porte à des contestations, comment ces experts étaient-ils choisis ? Quelle assurance avait-on quant à leurs compétences, leur neutralité etc.?). L’outil technologique pourrait ici être utilisé dans le sens « néguanthropique » souligné par Stiegler. Il suffit que cet outil agisse par enregistrement de multiples dialogues, ensuite emmagasinés et prêts à se déclencher en face de toutes les questions posées puis de synthétiser les interactions sous la forme de réseaux d’idées obtenues après normalisation… Nous n’en sommes pas là. Pas encore là. Un jour viendra peut-être… ce jour-là, nous aurons franchi un grand bond dans l’intelligence, et ce ne sera peut-être que par un tel bond que pourront être résolues les questions qui nous assaillent aujourd’hui comme le réchauffement climatique ou la difficulté de l’accès à l’énergie disponible. C’est dire en somme que nous avons bien plus besoin de cette mise en coopération contributive que d’hypothétiques robots ouvrant la voie à un transhumanisme mortifère.

(*) je sais que certains les contestent, ils disent par exemple que Marx s’est trompé sur l’origine de la valeur, que ce n’est pas « le travail » parce que, disent-ils, on n’a jamais vu quelqu’un acheter « une quantité de travail » lorsqu’il acquiert une marchandise. Certes, la quantité de travail est dissimulée, refoulée et même forclose lorsque nous achetons un produit qui correspond à nos désirs, mais il n’empêche qu’elle est toujours là, que la force de travail nécessaire à produire a un coût, et que l’entrepreneur cherche à réduire ce coût. De quelque manière que l’on tourne la question, la force productive est présente.

Publié dans Science, Société, Uncategorized | Tagué , , , , | 7 commentaires

Réduisons l’anthropie!

Alfred James Lotka, né en Pologne en 1880 et mort à New York en 1949, est connu surtout par ses travaux en dynamique des populations et les équations qu’il formula avec son collègue Volterra, mais on le présente aussi comme fondateur d’une nouvelle discipline: la biologie physique dont il expose les principes dès 1925 dans son essai Elements of Physical Biology (réimprimé en 1956 sous le titre Elements of Mathematical Biology). Comme il est dit sur Wikipedia, «Lotka y annonce une nouvelle discipline scientifique : la biologie physique, dont l’objet est la transposition des lois de la Physique aux systèmes biologiques. Il fonde son approche sur l’hypothèse selon laquelle les transformations cellulaires peuvent être interprétées comme des conversions d’énergie, et peuvent à ce titre être analysées par les lois de la thermodynamique. Dans cette représentation du monde, le minéral comme le vivant ne sont que les composants d’un système global de dégradation de l’énergie. Cette thèse lui valut une reconnaissance posthume aussi bien des théoriciens des systèmes comme Ludwig von Bertalanffy que des écologistes des années 1960 et 1970 ».

Alfred Lotka

Wassili Vernadsky (1863 – 1945), de son côté, était plutôt chimiste et géologue de formation mais s’est illustré par des recherches aux confins de ces disciplines et de la biologie, c’est donc la biochimie qu’il a inventée et même la biogéochimie, faisant de la vie même une force géologique, d’où son concept de biosphère, rajoutant ainsi une couche à la lithosphère et à l’atmosphère qui forment les entités en interaction dans et autour de notre planète. Il eut même cette idée de compléter ces couches par d’autres : technosphère (pour tout ce qui résulte de l’activité humaine) et noosphère englobant la pensée. On dit aussi sur Wikipedia que Vernadsky a identifié le facteur néguentropique découvert dans la nature, et repris le terme de noosphère « dans sa forme non-théologique ». On comprend donc particulièrement l’intérêt que l’on peut porter aujourd’hui à tous ces travaux qui fondent l’écologie scientifique moderne.

Wassily Vernadsky

Produire de l’anti-anthropie

Le mathématicien, physicien et biologiste Giuseppe Longo, co-auteur, avec tout un collectif (dont Maël Montévil, avec qui il a déjà écrit de nombreux articles), de « Bifurquer » (cf. mon billet précédent) s’inscrit dans cette lignée en y ajoutant ce que la science d’après 1945 a introduit de nouveau : la logique et l’informatique, mais aussi les disciplines qui se sont développées dans leur sillage : linguistique, psychologie cognitive… et bien sûr ce que l’on a coutume d’appeler l’intelligence artificielle. Ce qui m’intéresse est son approche non seulement critique mais en rupture par rapport à la tradition de ces disciplines. Les recherches conduites depuis l’apparition des sciences cognitives se sont majoritairement axées sur une conception de l’intelligence comme traitement de l’information, celle-ci se trouvant plus ou moins bien définie à partir des travaux de Shannon et de Kolmogorov, qui établirent le lien de l’information avec la théorie des probabilités, bien que l’on ait peu d’assurance sur le fait qu’un événement moins probable contiendrait en lui-même davantage d’information qu’un événement plus probable (selon ces théories, il y aurait autant d’information dans une suite de symboles produits au hasard que dans une pièce de Shakespeare de même longueur!). Cette conception implique une sorte de transformation mécanique d’un input capté par les sens en une représentation apte au calcul. Nous sommes en plein mécanicisme autrement dit dans une perspective qui ne fait au mieux que maintenir le degré d’entropie, et en aucun cas le diminuer.

Giuseppe Longo

Pour produire de l’anti-entropie, il faut bien plus : ce que j’oserai appeler créativité (bien que les auteurs n’emploient pas ce mot). Pour être plus précis et pour aller plus loin sans doute que la seule aptitude connue sous ce nom (et que Chomsky a déjà abondamment mise à contribution quand il parle de la créativité du langage pour, en réalité, signifier seulement l’infini potentiel contenu dans toute grammaire), ils font tout simplement appel à la notion de travail. Oui, il faut fournir un gros travail pour remonter le cours de l’entropie – anthropie !

Produire de l’anti-anthropie, c’est d’abord produire de la nouveauté, mais pas au sens de ce que les agents de marketing appellent « l’innovation », dans un sens tout autre, qui renvoie à ce qu’en aucune manière on aurait pu prédire :

Le concept d’anti-entropie vise à rendre compte des organisations biologiques dans leur historicité. Les formes de vie actuelles se maintiennent à la fois par l’activation de nouveautés fonctionnelles apparues dans le passé (anti-entropie) et par la production de nouveautés fonctionnelles (production d’anti-entropie) issues de l’individu ou du groupe (population, écosystème etc.). Non seulement ces nouveautés sont imprévisibles, mais leur nature elle-même ne peut être prédite. Cela a pour conséquence que la théorie des probabilités est insuffisante pour décrire le vivant et son évolution. (p. 74) (c’est moi qui souligne)

Ces « nouveautés » sont bien sûr à trouver aujourd’hui principalement dans la part exosomatique de la vie, autrement dit dans les savoirs et les techniques, et dès qu’une telle nouveauté apparaît, il va de soi qu’elle est un pharmakon (comme dit dans le billet précédent) c’est-à-dire une sorte de « remède » dont le risque de toxicité est loin d’être nul (puisque nous en avons tant de fois fait l’expérience au cours des décennies passées, avec l’évolution des télécommunications puis de l’informatique, l’apparition de l’Internet, des smartphones et des réseaux sociaux), d’où :

Pour qu’une nouveauté exosomatique puisse devenir bénéfique, et limite sa toxicité, un surcroît de travail est toujours nécessaire, en toute époque de l’évolution anthropologique. Seul le travail ainsi entendu permet d’identifier les nouveautés exosomatiques réellement requise par et compatibles avec un avenir souhaitable pour une localité – cette localité fût-elle la biosphère elle-même et en totalité. Ce travail est celui de la noesis, c’est-à-dire de la pensée, sous toutes ses formes, et comme savoirs pratiques aussi bien que théoriques, familiaux, artisanaux, sportifs ou artistiques aussi bien que théoriques, juridiques et spirituels au sens large. Il relève de ce que nous nommons en conséquence la noodiversité et la noodiversification.

Ce thème, omniprésent dans l’ouvrage, va permettre de développer considérablement l’opposition entre travail et emploi (l’emploi étant, au contraire du travail, une forme de séparation du savoir par rapport au sujet, ce que Stiegler rapproche de la forme salariat introduite par Marx, et donc de la prolétarisation). Le travail seul est producteur de sens (à condition qu’en fassent partie toutes les contributions qu’apportent les agents même lorsqu’elles ne sont pas rémunérées, comme l’éducation des enfants).

Longo, Stiegler, Montévil et al. envisagent donc et la technologie et la science, et notamment l’informatique et ses applications, sous un jour totalement différent de celui que nous avons vu dominer nos recherches dans les dernières décennies, et qui a, il faut bien le dire, réduit considérablement nos potentialités noïétiques puisque s’orientant principalement vers l’automatisation des procédures (traduction automatique etc.) et la préparation de packages (statistiques par exemple) pour « faciliter » les recherches… Une telle remise en cause peut aller loin, jusqu’aux fondements mêmes parfois de notre savoir contemporain (notamment en ce qui concerne la mathématisation et la notion afférente de modèle).

La modélisation et l’IA dans le courant entropique.

La mathématisation marque à n’en pas douter un pas utile dans la progression vers la scientificité d’une approche relative à un domaine donné. Un modèle mathématique a souvent été comparé à un modèle physique voire à un modèle réduit d’un phénomène décrit. Si le modèle correspond bien à la réalité, on pourra effectuer calculs et raisonnements qui permettront de prévoir et de décider en connaissance de cause. Il est possible de prévoir l’évolution d’un phénomène en s’en remettant aux équations qui le régissent. Cela est d’autant plus vrai que la réalité est simple (« non-complexe » comme on dit aujourd’hui). On a souvent pris pour exemple les calculs de trajectoire en balistique où une fonction mathématique (parabolique) décrit le phénomène en fonction d’une impulsion initiale et de la connaissance de la loi de la gravité.

Les modèles reposent en général sur de grandes hypothèses comme la linéarité, la polynômialité ou le caractère constant de certaines fonctions : la gravité est ainsi supposée être une force constante s’appliquant de la même manière en tout lieu de l’univers. Ces hypothèses définissent un cadre qui permet de formaliser et prévoir tout ce qui s’inscrit en lui, mais il va de soi que des phénomènes imprévus échappent aux modèles car ces hypothèses ne les ont jamais intégrés. Les modèles économiques ne peuvent ainsi prévoir les crises comme celle de 2008, et les modèles épidémiologiques restent très hasardeux tant qu’on n’a pas acquis une connaissance précise du virus nouvellement apparu : on l’a bien vu avec la covid-19. La mathématisation conduit ainsi à prévoir un monde sans risque et sans nouveauté radicale, ce qui est exactement le contraire d’un monde vivant, c’est-à-dire d’un monde échappant au deuxième principe de la thermodynamique.

Pour approcher une réalité vivante, il faudrait réduire considérablement notre propension à généraliser et à considérer les lois d’un modèle (même peut-être les lois de la physique) comme universellement applicables, il faudrait aussi probablement rejeter les hypothèses trop simples. Mais alors dira-t-on, on ne trouvera plus de mathématiques assez subtiles pour cela, ou alors des théories d’une complexité telle que notre entendement s’en trouverait dépassé. D’où alors, cette terrible conséquence à laquelle nous aboutissons : le réel ne nous serait peut-être atteignable qu’au travers d’un filtre constitué de mathématiques trop simples, raison pour laquelle il nous échapperait en très grande partie. Henri Poincaré écrivait dans L’avenir des mathématiques que « dans la plupart des problèmes de Physique mathématique, les équations à intégrer sont linéaires ; elles servent à déterminer des fonctions inconnues de plusieurs variables et ces fonctions sont continues. Pourquoi ? Parce que nous avons écrit les équations en regardant la matière comme continue. Mais la matière n’est pas continue : elle est formée d’atomes, et, si nous avions voulu écrire les équations comme l’aurait fait un observateur de vue assez perçante pour voir les atomes, nous n’aurions pas eu un petit nombre d’équations différentielles servant à déterminer certaines fonctions inconnues, nous aurions eu un grand nombre d’équations algébriques servant à déterminer un grand nombre de constantes inconnues. » mais peut-être pouvons-nous penser aussi que s’il en est ainsi c’est parce que les modèles continus sont mieux connus, plus faciles à utiliser. Quitte à appauvrir le réel et à le réduire à une « machine » aux comportements prévisibles… autrement dit qui maximisent l’entropie. La modélisation, en ce cas, ne rendrait jamais compte de la néguanthropie…

Henri Poincaré

Quant aux sciences humaines, le pouvoir de la mathématisation dans leur champ demeure des plus limités, et là où il s’applique, on peut vraiment trouver l’illustration des craintes exprimées par Giuseppe Longo au sujet d’un réductionnisme annihilant l’effet néguanthropique de la pensée.

J’ai beaucoup travaillé sur la mathématisation dans les sciences du langage et j’ai parfois été convaincu de ce qu’elle apportait comme savoir sur les structures profondes de la langue. Comprendre par exemple le rôle et la fonction des items de polarité négative (ou positive) dans la syntaxe des phrases d’une langue (pourquoi on dit « si tu viens jamais par chez moi » pour signifier « une fois » et pas « jamais » par exemple!) n’est pas simple. Une modélisation logico-mathématique y peut aider. De même pour les phénomènes de coréférence des pronoms (pourquoi dans « le fils de la concierge la nomme familièrement « mummy» », le deuxième « la » peut référer à la concierge, mais pas dans la phrase plus simple « la concierge la nomme familièrement « mummy » »). Mais on franchit une étape de trop lorsqu’on prétend réduire le langage à ce que peut exprimer un fragment de logique du second ordre mixé avec du lambda-calcul (ce qui était, en gros, le projet du philosophe américain Richard Montague), prétendant ainsi ouvrir la voie à une conception universaliste de la traduction entre langues.

Alan Turing

L’intelligence artificielle résulte d’une confusion : ne sachant pas définir ce que l’on entend par « intelligence », on a résolu (comme on le fait souvent en de tels cas) d’isoler de cette réalité quelques traits permettant de l’opérationnaliser. Et on qualifiera d’intelligent tout système qui satisfait ces traits. Peut-être la responsabilité de cette faute revient-elle à Turing qui fut le premier à lancer un défit aux fabricants de machines au moyen du fameux test qui porte son nom, reposant sur une situation de conversation entre un homme et une femme, cachés l’un à l’autre, ne communiquant que par écran interposé, avec un « juge » essayant de deviner qui est l’homme et qui est la femme, une machine étant considérée comme « intelligente » à la condition que si on la substitue à l’homme dans le dialogue, le juge la prendra pour l’homme (On s’interroge depuis longtemps sur les raisons qui ont poussé Turing à instaurer le dit dialogue entre deux partenaires de sexe différents. Dans la version initiale du jeu, l’homme est même supposé aider le juge, et la femme au contraire supposée le conduire à l’erreur… ce qui relève sans doute d’une bonne dose de sexisme chez ce cher Alan). On voit ici qu’il n’est pas question à proprement parler « d’intelligence » mais simplement d’un certain nombre de conventions sociales qui aident, dans une situation donnée, à déterminer qui est un homme et qui est une femme. Aspect très réduit de l’intelligence, sorte d’échantillon en quelque sorte qui ne ferait qu’en exprimer des caractéristiques très superficielles. Ou bien succédané d’intelligence… un peu comme le Canada Dry dont on sait qu’il ressemble à l’alcool mais n’est pas de l’alcool… Ce n’est pas cette intelligence-là en tout cas qui remplit la noosphère… et c’est bien ce qui nous préoccupe. Sur les ordinateurs, Longo et al. écrivent :

Avec l’augmentation de leur vitesse et la croissance des bases de données, la capacité des ordinateurs à traiter les informations et à effectuer des catégorisations augmente considérablement. Cependant, les tâches qu’ils peuvent effectuer ne sont pas équivalentes aux nouveautés produites par le travail humain. Ce travail produit du sens qui n’est ni dans les données initiales ni dans leurs combinaisons par des méthodes algorithmiques.

En fin de compte… l’Internet et l’Intelligence seraient à réinventer… comme eût dit Rimbaud à propos de l’amour.

Publié dans Science | Tagué , , , , , | 3 commentaires

Bifurcation nécessaire

« Bifurquer », sous la direction de Bernard Stiegler (avec le collectif Internation), est un livre plutôt difficile à lire. Comme souvent dans le cas d’écrits théoriques, les auteurs se croient obligés d’employer une langue lourde où les nominalisations occupent le devant de la scène et où les phrases avec relatives et subordonnées abondent, donnant l’impression d’expressions figées contraignant le lecteur à les reprendre du début afin de pouvoir en tirer la signification essentielle… est-ce cela qui fait sérieux ? scientifique ? N’y aurait-il pas une autre manière de dire, avec des phrases plus courtes et davantage d’élan… les auteurs d’écrits théoriques devraient s’inspirer parfois de la poésie…

Il faut donc de la patience pour arriver à décortiquer une pensée qui, déjà, en elle-même, n’est pas simple. Mais si l’on produit cet effort, alors on est gratifié d’une compréhension de phénomènes auxquels souvent nous ne savons pas donner de nom. L’œuvre de Stiegler est complexe, on le sait. Elle ne se limite pas à fournir « une opinion », à décrire une tendance qui serait toujours plus catastrophiste ou à s’indigner d’une politique désastreuse, elle construit lentement mais sûrement un arsenal de concepts explicatifs qui s’enchaînent les uns avec les autres pour donner une théorie d’ensemble dont nous manquons cruellement depuis Marx et Freud. Le concept central de ce recueil de contributions est celui d’entropie, dont tout le monde connaît la nature physique, qui va de pair avec l’énoncé du deuxième principe de la thermodynamique selon lequel l’entropie d’un système isolé est croissante. Cournot, Brillouin, Costa de Beauregard (Le Second Principe de la science du temps, entropie, information, irréversibilité, éditions du Seuil, 1963) l’ont exploré et l’ont relié à la flèche du temps, ainsi qu’à la notion d’information. Une barre métallique chauffée à une extrémité mais pas à l’autre possède une quantité d’information (permettant de distinguer les deux extrémités par exemple), en même temps qu’un certain degré d’entropie (autrement dit une certaine dose d’organisation), au fil du temps, la température va s’uniformiser, ce qui va conduire à une indifférenciation des deux extrémités (perte d’information) et à une évolution vers moins d’organisation et donc plus de chaos (hausse de l’entropie). La hausse de l’entropie qui est une progression vers le désordre est en même temps une perte d’information, d’où le fait que l’information soit, depuis Brillouin, qualifiée de néguentropie.

Les systèmes non isolés peuvent échapper à cette tendance inexorable, c’est le cas de la vie sur Terre, où l’entropie est contre-carrée par le rayonnement solaire. Déjà Schrödinger, dans Qu’est-ce que la vie ? en 1944, mettait le doigt sur le fait que « lutter contre l’entropie, c’est ce que fait le vivant », et c’est là qu’il parlait d’entropie négative. Mais l’humain, en tant que vivant d’une espèce un peu particulière, qui possède en particulier son entrée dans la noosphère (c’est-à-dire le monde des idées, du langage et des pensées) en ajoute une couche, si on ose l’expression. Les organes dont il est doté ne sont pas seulement endosomatiques (liés au développement de son propre corps), mais aussi exosomatiques : ce qui sort de lui et s’érige comme outils – du levier à l’ordinateur – productions, écrits, textes qui finissent comme des entités stables au moins pour un temps, situées en dehors de lui et ayant leur autonomie et développement propres. Ces productions, que Stiegler qualifie parfois de pharmaka, ont une double face, l’une pouvant contribuer à davantage d’organisation et de savoir (en ce cas ils contribuent à augmenter la néguentropie) et l’autre au contraire pointant vers plus d’entropie, ou anthropie (l’anthropie étant le part spécifiquement humaine de l’entropie) : ils ajoutent au désordre, on peut ici penser à l’usage abusif de l’automobile engendrant pollution et conditions d’encombrement qui finissent par ruiner les conditions d’un emploi néguentropique. Elles occupent donc une place majeure, au point que l’ère qui les voit dominer à ce point a mérité d’être qualifiée d’anthropocène (terme utilisé par le météorologue et chimiste de l’atmosphère Paul Josef Crutzen à la fin des années quatre-vingt-dix).

Erwin Schrödinger

L’anthropocène serait donc cette ère géologique où l’entropie a commencé à être de l’anthropie. De même que la vie s’édifiait en luttant contre l’entropie, il faut qu’à l’anthropocène, quelque chose lutte contre l’anthropie, évidemment on peut s’en douter c’est la noèse, autrement dit la pensée, le savoir, les idées.

Les signes de la croissance d’entropie au niveau global de la vie sur Terre sont nombreux, ils comportent notamment la réduction de la diversité biologique, dont les effets de désordre sont souvent relevés : la crise du Covid-19 ainsi que d’autres épidémies à venir, liées à des passages de virus d’une espèce animale à l’homme, en sont des exemples. La réduction de cette diversité réduit le nombre d’espèces vers où un virus peut migrer, augmentant la probabilité du passage vers l’humain. La globalisation est donc entendue comme manifestation d’entropie. Ce qui entraînera la nécessité de se concentrer sur le local.

Si l’entropie réduit le vivant (et notamment la biodiversité), l’anthropie réduit la pensée, le symbolique, et particulièrement ce que l’on peut appeler en analogie avec la biodiversité : la noodiversité, c’est-à-dire la diversité des points de vue, des idées, des langues (et à l’intérieur de chaque langue elle se traduit par un appauvrissement de celle-ci, un article récent encore signalait à quel point se réduisaient à vue d’œil les compétences linguistiques des êtres parlants, restreignant par exemple la gamme des temps verbaux disponibles – qui utilise encore le passé simple ou le subjonctif en français ? – l’éducation telle qu’elle est dispensée y étant évidemment pour quelque chose, appauvrissement qui ne peut conduire qu’à celui de la pensée, le sujet perdant à la fois l’habitude et la capacité d’approfondir ce qu’il pense et la nuance sous laquelle il lui faudrait l’exprimer).

Comment empêcher l’entropie de croître ? Si cela est impossible pour le système global isolé (notre univers cosmologique par exemple), on peut par contre penser que cela est possible aux divers niveaux de localité qui nous concernent, nous humains. On sait en effet que des systèmes locaux peuvent échapper au principe, même si, globalement, l’entropie continue de croître. On trouvera ici la raison de fond pour laquelle Stiegler et al. mettent l’accent sur la localité (mais une localité extensive, par emboîtements successifs pouvant atteindre la biosphère).

J’ai, dans un article précédent concernant la logique (la logique de la logique – III), mis l’accent déjà sur la « locativité », concept légèrement distinct de celui de localité en ce qu’il porte sur le caractère locatif (inscrit dans un lieu) d’une idée ou d’une parole, alors que « localité » renvoie simplement à une opposition au « global » ; on voit néanmoins la proximité des deux notions. Le local naît d’un lieu. Seulement il ne doit pas y demeurer car, et c’est le propre de la topologie, les lieux s’emboîtent les uns dans les autres. En topologie, discipline mathématique aux lointaines origines eulériennes, on définit la notion de voisinage, ce n’est pas quelque chose d’absolu, du genre « est voisin qui vit à moins de 500 mètres de moi », mais quelque chose de relatif se situant dans un système : si V est un voisinage de x, tout W incluant V en est encore un. Ce qui est fascinant dans cette notion mathématique (qui a permis aux Bourbaki de refonder complètement l’analyse au sens où l’entendaient Leibniz et Newton) c’est donc qu’elle contient en elle-même une notion d’ouverture. Pas étonnant d’ailleurs si on l’utilise pour définir la notion d’ouvert : en topologie, un ensemble est dit ouvert s’il est voisinage de chacun de ses points. Comme il est dit par Stiegler et al. « la localité est le processus d’une identification toujours ouverte, et non la projection fantasmatique d’une identité donnée ».

Si lutter contre l’entropie suppose le ressaisissement du niveau local car c’est de là que naissent les processus néguentropiques, cela suppose aussi une forme d’intervention ou « d’ajout » au réel. De par les facultés propres à Homo Sapiens, de par son immersion dans ce qu’on appelle noosphère, cela se fait par le savoir. J’ajouterai aussi que cela se fait par l’art : l’art ajoute quelque chose au monde, qui est justement ce qui, à un niveau local, remplace une région du réel qui irait vers l’entropie croissante par une région presque identique mais nouvellement informée : songeons à l’artiste Christo, récemment disparu, dont l’œuvre a principalement consisté à ajouter des matières et des formes, tissus enrobant le Pont-Neuf ou le Reichstag, planchers flottants entourant des îles ou palissades dans le désert californien (clin d’œil ici à mes compagnes de stage de peinture à Crest du 29 juin au 3 juillet).

Christo. La barrière qui court… (Running Fence)

Les auteurs de « Bifurquer » s’appuient abondamment sur les recherches menées il y a déjà longtemps (vers les années 1945) par des chercheurs comme Alfred Lotka et Georgescu-Roegen (économiste). Le premier a mis en lumière que « la production de savoir est la condition de la lutte contre l’entropie pour cette forme de vie technique qu’est la vie humaine ». Le second « reprendra le point de vue de Lotka en soutenant que l’économie a pour fonction de limiter l’entropie et d’augmenter la néguentropie », à condition bien sûr que cette économie « ne repose plus exclusivement sur la physique newtonienne, mais intègre la thermodynamique, comme question de l’entropie, et la biologie, comme enjeu de la néguentropie ». Pour Lotka, l’évolution exosomatique qui complète l’endosomatique est tout autant que celle-ci porteuse d’anthropie et néguanthropie (suivant le caractère bivalent des organes qu’elle engendre, les fameux « pharmaka »), d’où « la fonction vitale du savoir » qu’il faut non seulement protéger mais amplifier. Or, ici est intervenue une vraie catastrophe, contemporaine du début de l’ère anthropocène : la transformation du travail (au sens du grec ergon, travail comme producteur de savoir) en labeur (ponos) voire pire: en emploi. « Le travail a été transformé en emploi et les savoirs qui étaient mis en œuvre par le travail ont été progressivement transformés en formalismes machiniques » (p. 31).

Marx avait appelé prolétarisation ce processus de séparation de la conscience du travail accompli dans les fabriques industrielles. Déjà perçaient les effets de l’automation, de la fragmentation des tâches, du taylorisme et de la division du travail, le labeur n’était plus qu’une tâche fractionnée et répétitive accomplie pour un salaire sans que jamais n’apparaisse une possibilité de s’accomplir à travers lui. Les siècles postérieurs (le XXème et plus encore le XXIème pour ce que nous en voyons actuellement) ont amplifié le phénomène en s’étendant hors du monde de la fabrique des objets matériels vers celui des idées et du travail intellectuel, la recherche s’effectuant elle aussi désormais par « actions » fragmentées utilisant des prêts à porter méthodologiques (packages d’outils statistiques par exemple, dont l’utilisateur ignore souvent la manière dont ils fonctionnent). Stiegler parle donc de prolétarisation en un sens plus général, et plaide pour que l’ère nouvelle soit non seulement celle de la décarbonation mais aussi celle de la déprolétarisation. Par quels moyens ? Un gros effort doit être fait sur ce que les auteurs appellent l’économie contributive, dont le but est de « revaloriser les savoirs de toutes sortes – de celui de la mère qui sait élever ses enfants à l’heure des écrans tactiles aux savoirs les plus formalisés et mathématisés, bouleversés par les black boxes, en passant par les savoir-faire du travail manuel ou intellectuel à l’époque de l’automatisation » (p. 33).

L’entreprise est évidemment colossale. Monde de l’après-Covid ? Si seulement… Nous en voyons si peu les prémisses… pourtant le collectif « Internation » se prévaut d’un certain nombre d’expériences menées notamment à La Plaine Saint-Denis dans le 93. Il faudrait y aller voir de plus près. Les rapports de ces expériences proposés dans le livre sont hélas parfois obscurs (dans ce style évoqué au début de cet article, alors qu’on aimerait des récits, des témoignages un peu enthousiasmants). Il faudrait aussi parler de cette idée surtout développée au chapitre 10 par Daniel Ross mettant en parallèle les deux grands types de technologies aujourd’hui développées : celles à base de carbone et celles à base de silicium. Si les premières doivent être carrément éliminées (si nous souhaitons arriver à un monde où il soit encore possible de vivre), les secondes demandent un autre traitement : non pas les éliminer mais les aiguiller sur une autre voie. Ici repose l’idée de bifurcation qui donne son titre au livre. J’y reviendrai. Je termine par cette phrase qui (exception?) fait preuve d’une certaine envolée poétique :

Tout savoir sait quelque chose du monde en cela qu’il ajoute quelque chose à ce monde : il sait que ce monde est inachevé et qu’il faut continuer à le faire advenir. Cet ajout par lequel le monde advient par le savoir, c’est un apport néguanthopique aux mondes humains.

Publié dans Actualité, Science, Société | Tagué , , , , | 2 commentaires

Logique de la logique – IV

Il y a un lien entre les trois articles publiés récemment (+ celui-ci!), « Logique de la logique » et ceux que j’écrirai bientôt. Il passe, on le comprendra, par les écrits récents de Bernard Stiegler et du groupe autour de lui, Internation, ou « Association des amis de la génération Thunberg ». Il y a un lien aussi avec les goûts littéraires que j’ai déjà exprimés, passant par Jean-Marie Gustave Le Clézio que j’admire depuis mon jeune âge (je devais avoir 16 ou 17 ans) et dont je me réjouis de voir l’engagement actuel, qui le mène à dire que Greta Thunberg est la personnalité marquante du siècle.

J.M.G. Le Clézio: Greta Thunberg est la figure marquante de ce temps

J’ai expliqué dans le billet précédent (« logique de la logique – III ») en quoi la locativité était importante, car elle permettait de reconstruire la logique sur une autre base que sur des entités fictives (le « vrai », le « faux », le statut « individuel » des objets…), dont le mauvais usage conduisait inexorablement à des apories (rechercher la « vérité » des assertions dans une mise en abyme infinie renvoyant de méta-langage en méta-langage, admettre qu’un univers ne peut être que non vide, définir l’égalité entre deux objets alors qu’il est criant qu’ils ne peuvent avoir toutes leurs propriétés en commun, être incapable de déduire une conclusion d’un raisonnement simple parce qu’on ne voit pas qu’il y a une règle de coupure à appliquer etc.).

Je m’aperçois que j’ai peu développé l’aspect dynamique des choses. Erreur. Dans un mail privé, Jean-Yves Girard me dit que « la grande bifurcation dans [s]on travail tardif, c’est la découverte de l’usine, seule source possible de certitudes (raisonnables, pas absolues) : des tests permettent d’éviter les apories inhérentes à l’existentialisme ». Dont acte. Je crois qu’il faut comprendre ici que l’on ne peut pas tout rabattre sur l’usage local. L’aporie, en l’occurrence, serait ici celle de la volonté de tout produire localement, comme il vient à en être discuté dans les cercles écologistes… Une amie me racontait récemment l’expérience de ces jeunes paysans qui voulaient voir jusqu’où on pouvait aller dans le produire local et dans l’émission de zéro carbone, de fait il y avait insuffisance pour nourrir tout le monde et empêchement de distribuer toute sa production (manque de moyens non polluants pour déplacer la production au plus près des consommateurs). Ce que Girard entend par « existentialisme », c’est l’idée que l’on pourrait toujours tout recréer à partir de rien dans le temps présent, alors que nous utilisons toujours autre chose, des leviers par exemple, ou bien d’autres outils, dont nous savons par expérience qu’ils sont fiables et fabriqués pour l’usage que nous voulons leur donner. D’où l’opposition entre « usine » et « usage », que l’on trouve déjà formulée dans « Le fantôme de la transparence ».

L’usine et l’usage

La philosophie a souvent pratiqué des distinctions entre les jugements. Kant opposait l’analytique au synthétique (et, au-delà, le synthétique a priori au synthétique a posteriori), la philosophie du langage oppose volontiers le descriptif au performatif, mais aussi l’implicite à l’explicite. Girard, dans ses travaux antérieurs, a souvent opposé le locatif au spirituel. Ces diverses oppositions recèlent certes des nuances mais ont toutes le point commun de référer à des modes de connaissance distincts. L’affirmation selon laquelle un homme célibataire n’est pas marié relève d’une définition (analycité), il ne faut aucun effort mental particulier pour l’admettre, à la différence d’une autre qui dirait par exemple que les carrés multiples de 2 sont tous des multiples de 4 (synthétique). De la même manière, une table de logarithmes nous donne un explicite: la liste de tous les logarithmes des nombres entiers de 1 à 10 000 (au moins) alors qu’une calculette recèle en elle le petit programme qui, lorsqu’on l’active, nous donne la réponse à notre question « quel est le logarithme de x ? » (implicite). « Ouvre la porte ! » réfère à un ordre qui, normalement, déclenche une action, alors que « la porte est ouverte » est juste un constat. La ludique mettait l’accent sur l’opposition locatif / spirituel. N’ayant pas de formules parce que les ayant remplacées par des ensembles de lieux, elle ne permettait de travailler, en toute rigueur, que sur des schémas (desseins) fortement localisés. On n’avait pas a priori de possibilité de tirer de la ludique des formes générales s’appliquant à d’autres situations que l’actuelle, sauf à introduire des opérateurs de délocalisation ou un dessein particulier appelé Fax qui, par interaction avec un dessein quelconque, avait la faculté de déplacer ce dernier, de le recopier en un ailleurs locatif. C’est de cette manière que Girard éliminait le recours à la terrible notion d’occurrence (occurrence d’un symbole dans une formule… genre de définition prenant trois pages dans un manuel élémentaire de logique formelle en guise de préambule aux choses vraiment intéressantes!) : au lieu de partir d’un symbole abstrait et de dire que c’était bien le même qui occurrait en divers endroits de la formule (ce qui est une sorte d’acte de foi), on préférait partir de l’endroit, du lieu, et dupliquer la marque (avec un indice différent) là où on souhaitait qu’elle advienne… En délocalisant un dessein, on en atteignait une forme en quelque sorte « spirituelle » (débarrassée des contingences liées à une situation donnée). Dans la nouvelle mouture, cette différence est partiellement conservée : on parle de points et de liens entre ces points, ce qui n’est guère différent que de parler de lieux, mais on simplifie l’approche en opposant désormais non plus le locatif au spirituel mais… l’usine à l’usage ! Le mot « usine » n’est pas très beau, il n’a pas très bonne presse, on a tôt fait de dire : « une vraie usine » pour qualifier un ensemble trop grand, où les relations échappent à la compréhension immédiate (voire même « une vraie usine à gaz »), Girard l’utilise « pour la rime » (ici les deux premiers sons). On pourrait aussi choisir le mot d’atelier, plus sympathique.

usine…

L’usine, c’est là où l’on teste les objets avant leur mise en circulation, c’est donc très locatif et cela se fait dans un certain format. Par exemple tel modèle de voiture est fait pour rouler à l’essence, au gas-oil ou à l’électricité, pour ne pas dépasser telle vitesse etc. (c’est le format) et en fonction de cela, on appliquera des tests (robustesse, consommation etc.) à un exemplaire du modèle dans les locaux de l’entreprise (et on trichera éventuellement sur les chiffres). L’acheteur acceptera le format et fera confiance aux tests (le pauvre!). Après quoi il pourra partir avec le véhicule et en faire ce qu’il voudra, mais en ayant été informé de ses performances : c’est l’usage, qui n’est plus très locatif (ni très spirituel non plus, d’ailleurs!). On peut transposer cela aux objets de la logique (desseins, preuves, comportements) : nous avons déjà fait connaissance avec les tests, et le montage locatif qui aboutit à faire passer à un dessein certains tests avant qu’on le qualifie de « valide » correspond exactement à l’usine. Ce qu’on tirera de là, c’est notre usage normal (et normé!) des lois dérivées.

La dynamique des preuves

La chose importante que je n’ai pas dite dans les « chapitres » précédents est que la machinerie logique ne fonctionne (pour produire des théorèmes, des jugements…) que si elle est mise en action : c’est un des rôles de l’usage. Par exemple, afin de reprendre la version lewis-carrollienne d’Achille et la Tortue, la prolifération de formules intermédiaires se réduit à néant dès que l’on réalise que l’obtention d’une conclusion repose (uniquement) sur une interaction entre deux formules. Supposons que j’aie A et que vous ayez A => B, alors si nous nous mettons ensemble, mon A en position positive (je peux écrire |- A pour « j’asserte A » et j’admettrai alors que ce qui est à droite de « |- » est positif, ce qui est à gauche négatif) vient immédiatement neutraliser votre A en position négative (car on peut écrire aussi A |- B au lieu de |- A => B) et il ne reste plus que B en position positive (« |- B »). Cette action est la mise en application de la règle dite de coupure (formulée pour la première fois par Gentzen dans son calcul des séquents de 1934). Evidemment cette machinerie n’est pas interne au langage (comme le disent les logiciens usuels) puisque le symbole « |- » ne figure pas dans celui-ci.

Le coup de génie de Gentzen fut de démontrer qu’en réalité… cette règle de coupure n’est pas indispensable. Dans son calcul des séquents (que je n’expose évidemment pas ici, qu’on sache seulement que cela ressemble à des clauses Prolog), il est possible de démontrer une formule valide en ne se servant que des règles d’introduction à droite et à gauche des connecteurs et quantificateurs usuels, et pas de la règle de coupure. Alors, pourquoi cette règle ? Eh bien justement parce qu’elle permet de faire interagir des preuves, de les transformer, de faire des raccourcis etc. Par exemple, supposons que j’aie une preuve π de T et une preuve π’ de T => T’, alors je vais pouvoir brancher l’une avec l’autre de manière à obtenir une preuve de T’ : j’utiliserai pour ce faire la règle de coupure (entre les deux occurrences de T) et qui plus est : un algorithme me permettra de supprimer l’occurrence de cette règle dans la preuve de manière à obtenir π’’, une toute nouvelle preuve de T’… qui, elle, n’utilise pas la coupure et aurait pu être obtenue « directement », mais mon branchement et ma suppression de la coupure m’ont rendu la chose beaucoup plus facile. Peut-être avais-je dans la manche cette preuve de T, en la réutilisant, je me dispensais du travail de la refaire dans un nouveau contexte.

Je crois qu’en rappelant ceci, on se met tout à fait dans la position de comprendre ce qu’est l’usage et ce qu’est l’usine. L’usine produit des preuves toutes faites (elles ont été « testées ») et l’usage les branche pour en obtenir de nouvelles. On pourrait tout faire à l’usine, c’est-à-dire en locatif, mais cela n’aurait guère de sens… et tout faire « en usage » demanderait trop de temps, il faudrait prendre en charge soi-même les tests, fabriquer ses outils avant de s’en servir (ce qui n’est pourtant pas interdit, après tout, certains le font, et c’est très respectable).

Interaction: les joueurs de cartes de Cézanne

Vers une autre perspective sur le langage

Cette interaction avait été reprise en ludique où la règle de coupure y était en quelque sorte généralisée : il n’y avait pas de formulation de cette règle proprement dite mais l’idée que deux dessins pouvaient se brancher l’un à l’autre au moyen de leurs loci positifs et négatifs (ce qui arrive dans le dialogue quand chaque locuteur s’applique à répondre aux attentes de son vis-à-vis, le locus négatif traduisant une attente et le locus positif une action), après quoi, comme dans l’élimination des coupures, on neutralisait les pôles positifs et les pôles négatifs afin d’obtenir un dessin résultant (qui était parfois un dessin très particulier, quasi vide). On parlait, dans ce deuxième temps, de normalisation plutôt que d’élimination des coupures. C’était une opération très féconde du point de vue du langage, car on pouvait associer aux étapes de la normalisation des procédures d’unification qui permettaient de résoudre les mille et un sens non explicités dans un dialogue, comme par exemple la référence des énonciations non-phrastiques (les « oui », les « peut-être », les « humms », les « pourquoi » et les comment »…). Répondre par « oui » à une question, cela permet de ne pas reprendre l’intégralité du texte de la question à la forme affirmative, de la même façon qu’en utilisant une coupure on ne refait pas la totalité d’une démonstration, et quand on « normalise » (élimine la coupure) le contenu affirmatif de la question vient tout naturellement prendre sa place au lieu du « oui ». Idem évidemment pour les « non » ou les « peut-être », et cela conduit à voir qu’ils ne sont pas fondamentalement différents des « maintenant » et des « ici » qui parsèment notre discours, et qui sont d’autres manières d’éviter de dire explicitement le jour et l’heure et le lieu… On remarque ainsi que notre dire est plié, plein de « contractions » et de replis, que seule une procédure de normalisation peut étaler, déplier, autrement dit expliciter. Une théorie du langage construite sur ces bases évite les nombreuses apories de la discipline dite « sémantique formelle », apories inévitables puisque cette discipline repose justement sur… la logique usuelle (valeurs de vérité, « modèles » etc.). Elle serait plus proche de l’usage poétique (poïétique?) que nous faisons de la langue en ceci qu’elle serait bien davantage basée sur ce qu’on fait avec la langue (bien d’autres choses que soi-disant « décrire la réalité ») que sur le supposé rapport de celle-ci avec la réalité (voir ici les dernières productions de François Rastier, portant notamment sur le « second Saussure » – qui n’avait rien à voir avec le premier).

Publié dans Philosophie, Science, Uncategorized | Tagué , , , , | 2 commentaires

Logique de la logique – III

Si j’ose encore un peu continuer sur ma lancée, essayant d’aller plus au fond dans la démarche girardienne de reconstruction de la logique, je vais me sentir obligé d’introduire quelques détails techniques. Je rappelle d’abord ici que si la logique nous intéresse ce n’est pas en tant que recherche d’une clôture, sorte de terminaison de la méthode scientifique et de la raison comme ont pu le donner à penser aux grandes époques du positivisme logique (début du XXème siècle) les Hilbert, Russell ou Tarski. Pas de « solution finale » ici, comme le répète souvent Jean-Yves Girard, c’est-à-dire de ce genre de solution dont on sait trop bien l’utilisation faite au cours de l’histoire par les pires idéologies totalitaires. Pas de « transparence » non plus, dont ce même Girard a bâti la figure du fantôme dans un de ses livres récents… Cela me renvoie à moi-même, à l’époque où, jeune idéaliste se croyant marxiste, j’imaginais que tout discours pouvait livrer sa vérité à coup d’analyses, voire même… « d’analyse automatique » (!). L’idéal frégéen (d’ailleurs repris à Leibniz) consistait en la croyance qu’il pouvait exister une langue parfaite telle qu’une fois nos paroles retranscrites en elle on en verrait immédiatement le sens… une sorte de sérum de vérité en somme. Mais il n’en va pas ainsi… sous nos paroles surgissent toujours d’autres paroles, et jamais n’apparaît un socle qui donnerait enfin la clôture de toutes choses dites. Pourtant il demeure des lignes de force, des tendances, certains discours sont plus crédibles que d’autres, certaines convergences apparaissent entre des dires distincts, des dialogues se forment. On pensera peut-être ici aux dialogues socratiques qui, depuis deux mille cinq cents ans, continuent de susciter notre réflexion à coups d’arguments et de contre-arguments. Un peu comme si l’espace de nos dires était structuré et que nous cherchions à en connaître la géométrie de la même façon que nous avons voulu depuis l’aube de la réflexion explorer et théoriser celle de l’espace environnant. La Théorie de la Relativité générale s’appuie sur l’idée que la force de gravitation est un effet de la courbure (géométrique) de l’espace. La logique serait peut-être aussi l’effet d’une courbure, mais de l’espace de nos dires. Vue comme cela, elle ne serait pas une norme arbitraire, comme semblent le dire beaucoup de philosophes, dont l’Ange Scalpel déjà rencontré. En tout cas, elle ne serait pas une transcendance qui nous imposerait un cadre de pensée définitif, juste un outil parfois, une commodité nous permettant de passer d’une pensée à une autre.

Dialogues et jeux infinis

A partir de cette façon de voir, on peut toujours prendre pour objet de réflexion un bloc d’argumentation, une tentative de preuve par exemple dont on ne sait pas a priori si elle va aboutir, qui va devoir affronter des objections, autrement dit des recherches de contre-preuves, d’oppositions à la thèse avancée. Dans la version antérieure des travaux de Girard, cela apparaissait dans l’entreprise de la ludique (baptisée ainsi parce qu’il y avait derrière une idée de jeu, un peu comme dans la logique dialogique, les règles arbitraires en moins). Preuves et contre-preuves s’opposaient. Avant de savoir si l’on avait l’une ou l’autre, on parlait juste de desseins ou de dessins, jeu de mots créé pour faire comprendre qu’à la fois on avait sous les yeux une entité géométrique (dessin) et une sorte de stratégie (dessein) – de fait, nous savons qu’étymologiquement les deux mots sont liés – Un dessin était une manière d’avancer dans le dialogue, de disposer ses pions en tenant compte des réactions attendues du partenaire, et on parvenait dans certains cas à une situation de convergence : les deux partenaires s’entendent pour dire que le dialogue peut se terminer, soit parce que l’un des deux a obtenu tout ce qu’il voulait savoir de la part de son partenaire, soit parce qu’il ne peut plus décemment continuer, ayant fait le tour de tous les arguments disponibles qu’il puisse opposer à l’autre. C’est ainsi que, dans une situation idéale, tout dialogue devrait s’achever… ! De fait, il est rare que les choses se passent ainsi… et, très souvent, le jeu est sans fin. Un spécialiste de l’argumentation et de la rhétorique, Marc Angenot, disait même que l’on est bien en peine de trouver au travers de l’histoire, une polémique qui serait définitivement close (les débats philosophiques par exemple, que l’on croit achevés à un moment, finissent presque toujours par redémarrer), d’où le fait que souvent… les dessins soient des figures infinies, que l’on ne converge jamais et que l’on soit dans cette situation affreuse où l’on part dans un problème sans avoir jamais l’assurance que la solution sera trouvée un jour et qu’à chaque instant nous soyons pris par l’angoisse : faut-il attendre encore un peu ou bien est-ce peine perdue ? Peut-être est-ce cela qui a conduit Girard à renoncer à la ludique. Après tout, quand on fait de la logique d’un point de vue mathématique, on veut que ça serve à résoudre des problèmes, à tester la rigueur d’une démonstration etc. (et pas forcément à nous renseigner sur l’état d’avancement de notre « analyse », ainsi que le voudraient peut-être les psychanalystes !).

Du côté de l’Autre et du négatif (Hegel)

Imaginons encore que nous soyons dans un « bon » cas, un cas où « ça converge »… Bien sûr, dans une situation donnée, face à une formule que l’on avance et souhaite démontrer, il n’y a pas qu’un seul dessin possible, il y en a plusieurs. Certains peuvent être « gagnants » et d’autres non. Les dessins « gagnants » sont ceux qui conduisent le partenaire à concéder qu’il n’a plus d’arguments à opposer, ou plus de questions nouvelles à poser. Les dessins des deux dialoguants s’affrontent ainsi, mais pas toujours sous l’aspect d’un combat, cela peut être aussi celui d’une recherche d’entente, tous les jeux ne sont pas des duels, certains sont coopératifs, certains n’ont pas d’autres buts que de mettre en commun des expériences et des savoirs. Là apparaît tout l’intérêt de la « ludique », pas assez exploré à mon avis…

La faiblesse réside en ce que, bien entendu, le fait qu’un dessin soit gagnant n’est pas une garantie pour qu’il soit une « preuve » : il se peut que le partenaire n’ait pas été le meilleur possible, qu’il se soit laissé dominer ou satisfaire un peu trop facilement. Les dessins gagnants ne sont pas des preuves, ou alors il faudrait qu’ils aient été confrontés à tous les contre-dessins possibles, mais totaliser tous les dessins ou contre-dessins possibles n’est pas une mince affaire… c’est un passage à la limite, une idéalisation. Mais bon, admettons qu’il soit faisable, quels ensembles de dessins allons-nous privilégier, étant entendu que nous ne souhaitons plus partir d’une formule à démontrer mais simplement de dessins, de candidats à devenir des preuves… qu’est-ce qui est preuve, dans tout ça ? Ici intervient l’Autre, la caractérisation par l’extérieur, le négatif, le complémentaire… et en cela Hegel, avec sa dialectique, n’est plus très loin.

Georg Wilhelm Friedrich Hegel

Car si les dessins de deux dialoguants sont dans une situation d’orthogonalité quand on arrive à une « fin heureuse » (une convergence) et que l’on peut alors écrire D ⊥ E, où D est le dessin du premier intervenant et E celui du second, alors on peut associer à D un ensemble de dessins particuliers : tous ceux qui sont comme E, autrement dit orthogonaux à D. Notons D┴ cet ensemble. Si nous avons pu prendre l’orthogonal (le négatif) une fois alors rien n’empêche qu’on le prenne deux fois, et qu’on fabrique D┴┴ qui, bien sûr contiendra D comme l’un de ses éléments, mais pas lui seul, d’autres aussi, dont on peut dire qu’ils se comportent comme D du point de vue de l’orthogonalité. On définira alors D┴┴ comme un comportement. D’où une totalisation possible à partir d’un dessin, mais qui passe par le négatif.

La locativité au lieu de l’identité(*)

Un point important est que, bien entendu, se passant des formules (notamment des lettres qui les composent, les A, B, C, …), on doit bien dire où et comment s’enracinent les processus qui nous intéressent. Ici, la grande nouveauté girardienne fut d’introduire les lieux, rien que des lieux (locus solum, dit Girard dans un article manifeste de 2001 en reprenant le titre d’un roman de Raymond Roussel, à peine déformé – Locus Solus). C’est à partir d’un ensemble de lieux qu’une stratégie se développe, exactement d’ailleurs comme dans les jeux dits de stratégie, où l’on ne donne aucune identité particulière à une case de l’échiquier, qu’elle soit blanche ou qu’elle soit noire (autrement dit positive ou négative dans la terminologie ludique). Libre à nous ensuite d’étiqueter les cases si cela nous chante, mais cela n’aura rien changé à la règle du jeu, ni aux stratégies que l’on peut élaborer.

Parler de lieux, de localités donc (de loci comme on dit aussi dans le vocabulaire de la ludique), cela résonne étonnamment bien à l’heure où les identités sont trop souvent mises en exergue, ruinant et minant l’espace social. On retrouvera ici un passage du livre récent du groupe réuni autour de Bernard Stiegler (Bifurquer) :

Une localité n’est pas une identité. C’est au contraire un processus d’altération constitué de localités plus restreintes et multiples, et inclus dans de plus vastes localités.

Ou encore :

La localité est le moteur de la différence elle-même ; elle n’est pas constituée par son identité (elle n’en a pas) mais par son potentiel de différenciation […]. La différence est première, c’est-à-dire primordialement liée à une autre différence plutôt qu’à l’existence d’une identité pré-constituée.

Voilà peut-être ce qu’a toujours voulu Girard : fuir l’identité et l’essentialisation pour ne partir que de systèmes de différences, échelles de différences par lesquelles se construit une réalité qui n’est que transitoire, évanescente, toujours condamnée à disparaître mais pour donner naissance à d’autres différences. En somme, il n’y aurait pas d’êtres (même en mathématiques) mais seulement des systèmes de différences, autrement dit des comportements, dont les agencements divers ne pourraient que donner l’apparence de l’être. L’apparente stabilité de la formule ne viendrait que d’une immobilisation temporaire « forcée » dans un comportement.

Le rôle des tests

Mais on l’a vu, Girard abandonne la ludique pour cause d’incapacité à fournir une authentique caractérisation de ce qu’est réellement une preuve en logique (et en mathématique). Un comportement demeure cependant un ensemble de desseins (ou dessins) (dont nous ébaucherons plus loin le mode de construction). Une particularité d’un dessin, alors illustrée par notre présentation succinte donnée précédemment des réseaux de preuves, est que, pour être reconnu comme « preuve », il faut qu’il passe certains tests. Dans notre illustration, il fallait essayer toutes les sélections possibles d’une arête sur les deux d’un lien « par » (ce qu’on appelle un switching) et vérifier chaque fois si on obtenait un graphe connexe et sans cycle. Chacun de ces switchings donne lui-même un réseau (un dessein) et le dessein global est correct (est une preuve) si et seulement s’il passe l’épreuve de chacun d’eux. On comprend ainsi la dualité qu’il peut y avoir entre preuves et tests. On exprimera à nouveau cette dualité en termes d’orthogonalité. On écrira P⊥T pour l’orthogonalité entre une tentative de preuve et son test (qui est aussi une tentative de preuve, mais de la «thèse » opposée… inutile de se demander ce qui pourra tester un test, c’est le réseau auquel il s’applique, il y a parfaite dualité!), et on écrira P┴ pour l’ensemble de tous les desseins orthogonaux à P. On peut alors construire P┴┴ et… on retrouvera la même idée de comportement que précédemment.

La notion de comportement donne la clé de la reconstruction de la logique : on pourra essayer toutes sortes de combinaisons ensemblistes pour obtenir les différents connecteurs… Bien sûr, on peut aussi utiliser ceux que nous connaissons déjà, les tenseurs, les par etc. mais rien n’interdit d’en introduire de nouveaux. Dans la logique linéaire initiale, il y avait aussi des opérateurs un peu particuliers, on les appelait exponentielles (pour des raisons que je ne donnerai pas ici), on les notait « ! » et « ? », par exemple «!A » indiquait le caractère inépuisable d’une ressource (on pouvait penser à l’air que nous respirons… sauf que désormais, cette analogie est suspecte, continuerons-nous encore longtemps à le respirer?), «?A » était plus difficile à interpréter… comme une « sous-ressource » en quelque sorte… peut-être « pourquoi pas A ? », une éventualité de ressource… Cela était fait pour que (!A)┴ =?(A┴) (le point de vue opposé à l’inépuisabilité de A est le doute sur le fait qu’on puisse seulement nous en fournir un exemplaire). Ces sortes de « modalités » sont abandonnées : trop complexes à exprimer en termes de réseaux. Mais à la place des connecteurs nouveaux, susceptibles de les englober (comme !A⊗ B etc.).

On pourra même donner sens à des écritures à première vue bizarres comme ∃X P (X), où P (X) est un comportement dépendant d’une variable, mais je n’entre pas dans ces détails…, je note simplement qu’ils permettent de reconstruire l’équivalent d’une logique de second ordre. Bien noter en effet que dans ce genre d’écriture, X n’a rien à voir avec une « variable individuelle », il s’agit de l’équivalent d’une proposition, ce qui explique qu’il y ait des liens axiomes entre X et ~X (et donc aussi à côté de X : ~X, ce qui n’aurait aucun sens avec des variables individuelles!).

Nous avons ici la réalisation de ce que Girard annonçait à la dernière page du fantôme de la transparence :remplacer les individus par des propositions, a par « je suis » de sorte que le problème de l’égalité soit résolu, a n’étant plus égal à b « parce que toute propriété de a est propriété de b et réciproquement » mais parce que, tout simplement, il y a équivalence (linéaire) entre « je suis a » et « je suis b ».

De l’introduction des katakana

Un mot sur la construction des réseaux : des étoiles remplacent les suites de formules atomiques, du genre (p1, …, pk, q1, … , ql), dont les pi et les qj sont les rayons, leur différence étant que les premiers (de 1 à k) sont dits objectifs et les seconds (de 1 à l) subjectifs. Si l = 0, on a une étoile objective. On les branche par des liens axiomes et par des liens venant du bas du réseau, ceux associés aux opérateurs. La notion d’unification, familière à tous ceux qui ont fait du Prolog dans les années quatre-vingt, est abondamment utilisée (trace du théorème de Herbrand) et le réseau est dit correct s’il vérifie la formule d’Euler-Poincaré calculée avec des poids qui dépendent des atomes et des partitions induites sur eux par les opérateurs, ces poids étant différents selon la part prise par les objectifs et les subjectifs dans la démonstration, une preuve est visible si son poids est positif.

Ainsi peut-il bien y avoir des preuves visibles et des preuves invisibles ! Un comportement est « vrai » si et seulement s’il contient une preuve visible.

Si l’on considère les atomes, il vient vite que, en réalité, il en suffit de deux, l’un objectif, l’autre subjectif (se souvenir que le propre de la logique linéaire est de ne pas avoir de règle de contraction, si un même objet est répété deux fois, les deux fois comptent, on ne fait pas comme s’il y avait juste une instance idéalisée de la chose, que l’on reproduirait autant de fois que l’on veut). Ce sont les deux seules constantes admises désormais, qui n’ont rien à voir avec ce que l’on appelle couramment constante prédicative (P, Q, R, …) dans la logique des prédicats : ce sont de vraies constantes, comme le sont π ou e… c’est pour cela que Girard leur réserve des noms exotiques, fu et wo de l’alphabet des katakana (allez savoir pourquoi…). Et la grande nouveauté est que ces wo et fu suffisent à… reconstruire l’arithmétique formelle ! Mais je n’en dirai pas plus…

Vers le soubassement : géométrie et calcul

Comme on peut le constater, la notion « d’absence de cycle » joue un rôle central dans la définition des preuves : absence de cycle dans un branchement (ou switching) et absence de cycle dans l’unification des termes (on ne veut pas obtenir d’équation du genre y = f(y) ce qui entraînerait y = f(y) = f(f(y)) = f(f(f(y))) = … indéfiniment). Dans un domaine plus discursif et dialogique, comme fourni par les dialogues socratiques, nous avions montré, quelques amis et moi, que là était une source de la logique socratique, qu’il ne s’y agissait pas d’amener à une contradiction au sens aristotélicien, mais à une situation où le dialogue doit s’arrêter car les participants atteignent la certitude que s’ils continuaient l’échange d’arguments, celui-ci serait sans fin, sorte de constat d’impasse (tu soutiens A, moi je soutiens ~A, rien ne t’oblige à renoncer sauf que chaque fois que tu avanceras A, tu sauras que, moi, je reproduirai mon argument en faveur de ~A, et moi je sais que tu peux reconduire A de la même manière, de sorte que la discussion sera sans fin – cf. en particulier le dialogue Hippias mineur). Par ailleurs, une preuve, on le sait, est la stricte analogue d’un programme or le bouclage infini (absence d’arrêt) d’un programme est le signe le plus pur de son échec, de l’existence d’une erreur fatale en son sein (et on sait aussi qu’il n’y a aucun moyen a priori de se prémunir de ce genre de risque…).

La démarche de Jean-Yves Girard parviendrait donc à cerner au plus près les conditions de possibilité de la logique dans des contraintes d’ordre géométrique et calculatoire (les deux, le géométrique et le calculatoire, étant probablement liés). C’est en cela bien sûr que l’on peut répondre à Ange Scalpel que non, les axiomes de la logique ne sont pas condamnés à être circulaires, d’abord parce qu’il n’y a pas d’axiome à proprement parler (!) ensuite parce que justement c’est l’évitement des cycles et circularités qui fonde la logique.

Petite remarque ici : cela ne veut pas dire que cycles et circularités soient bannis, interdits de cité, voués aux gémonies, de même que les réseaux qui divergent (les interactions entre dessins qui se perdent dans l’infini) ne sont pas des démons dont on ne veut rien savoir, simplement ils n’entrent pas dans la logique, ils appartiennent à un ailleurs sur lequel il est difficile de construire des discours, géométrie mystérieuse et quasi inconnue comme celle des trous noirs…

noeud sans fin ou ashtamangala, symbole de l’heureuse connexion entre le destinataire d’une lettre et son expéditeur (Wikipedia).

(*) Dans la ludique, comme dans les réflexions menées dans « Bifurquer », la locativité s’oppose à l’identité comme le pur existant s’opposerait à l’essence. En disant qu’il n’y a rien que le lieu, Girard revendique un existentialisme sans transcendance ni ego. Une pensée naïve exprimerait qu’il y a de l’identique, en particulier un soi qui demeurerait identique à lui-même au cours des changements de lieu et de temps, l’identique à soi serait celui qui dit «je ». Aporie de la linguistique énonciative : qu’est-ce que « je » ? réponse : celui qui dit « je » (et il n’y a pas d’autre réponse), mais celui qui disait « je » n’est déjà plus là, n’est plus le même que le « je » de « maintenant », lequel « maintenant » est déjà aussi dépassé. Il n’y a donc que des localisations temporaires, des loci que des dessins joignent les uns aux autres selon une géométrie soumise à l’aléa. Bien peu de réseaux convergent entre eux (un infini dénombrable par rapport au continu des possibles?) grâce auxquels on puisse repérer des comportements. Cette théorisation a un contenu politique, aussi étrange que cela puisse paraître au premier abord, dans la détermination d’une « droite » et d’une « gauche », question que je me pose souvent à moi-même afin de savoir à quel camp j’appartiens, c’est facile à savoir : l’identité est de droite, la locativité est de gauche. Qui se dit attaché au concept d’identité est forcément de droite : il tient aux valeurs attachées aux racines, à la prégnance du sol. Heidegger est de droite. Il est insensé que des gens dits de gauche se soient réclamés de lui. A l’inverse, la locativité est prête à accueillir n’importe quelle formule, n’importe quelle marque d’une présence, en cela elle manifeste son ouverture à l’autre, au négatif. Hegel est bien sûr de gauche.

Publié dans Philosophie, Science | Tagué , , | 5 commentaires

Logique de la logique – II

Je continue ma série sur la logique tout en sachant que peu de lecteurs iront spontanément me suivre. Il faudrait pour cela que je sois plus convaincant dans mes explications que la logique peut intéresser tout le monde. « Ouvrir la logique au monde » tel était le titre d’un livre dirigé par Samuel Tronçon et Jean-Baptiste Joinet en 2009 (d’après un colloque de Cerisy portant ce titre). Ce livre contenait des interventions de Jean-Yves Girard, Giuseppe Longo et quelques autres (Michel Bitbol, Pierre Livet, Bernard Teissier…) qui tentaient de réfléchir à l’apport de la logique contemporaine à notre connaissance du monde au travers notamment de la notion de calculabilité (par exemple : la thèse de Church physique, celle selon laquelle l’univers calcule et les fonctions qui s’y révèlent sont donc « calculables », est-elle valide ?). Si j’en crois l’horizon actuel, post-pandémie et en plein dans la crise climatique liée au réchauffement de la planète, une nouvelle pensée serait requise, au sens d’une nouvelle manière de penser le monde (parce qu’on ne va pas brutalement, sans transition, installer une nouvelle pensée comme si on transplantait un nouveau cerveau à la place de l’ancien chez toute personne qui se mettrait en devoir de réfléchir). Ils disaient « Nouveau monde » mais il fallait dire « nouvelle manière de penser le monde », or qui ne voit que pour cela, il faudrait d’abord opérer une critique de nos instruments anciens de pensée, et donc en premier lieu de la logique qui est à la base de nos raisonnements ? Je viens de découvrir le livre « Bifurquer », écrit par un collectif (« les amis de la génération Greta Thunberg ») qui comprend, entre autres Bernard Stiegler, Jean-Marie Le Clézio et le sus-nommé Giuseppe Longo, autrement dit des anthropologues, des écrivains, des mathématiciens, des philosophes et même des artistes et des designers. Cela semble être une entreprise salutaire de repenser notre monde, que je salue, et c’est en tout cas une belle initiative interdisciplinaire visant à réviser les fondements de nos savoirs. Pas de logicien dans cette assemblée (Girard et Longo ont dû se fâcher)… Dommage.

Pourquoi votre fille est muette ? L’égalité et les individus etc.

Dans mon précédent billet, je faisais part d’un premier étonnement : comment tirer de l’existant à partir de rien ? D’autres étonnements sont possibles. Ainsi figurera toujours comme axiome la formule A => A, ou, ce qui revient au même, la règle selon laquelle de A on peut toujours déduire A, qualifiée en général de règle d’identité. Quoi de plus naturel qu’admettre en effet que si A est vrai, alors… A est vrai ! Oui, mais alors pourquoi a-t-on besoin d’un axiome pour le dire ? De fait, dans la logique « réelle », nous ne déduisons jamais A d’un A que nous savons déjà être vrai, ou alors cela s’appelle une pétition de principe : si votre fille ne parle pas, madame, c’est qu’elle est muette. Une manière de prouver que A => A est vraie (dans un système dit « de la déduction naturelle ») consiste à poser A comme hypothèse puis, par simple réitération de l’hypothèse, à réécrire A (tour de passe-passe qui ne convainc pas), après quoi, on « décharge » l’hypothèse A et on dit : vous voyez, A « implique » A… Une autre formule semblable est A => (B => A) que l’on démontre ainsi : se plaçant sous l’hypothèse que l’on a A, on fait n’importe quelle autre hypothèse B et, comme dans la précédente, on réinscrit en dessous A par réitération de l’hypothèse. Formule extraordinaire qui vous permet de dire :

du fait que l’on puisse guérir de la covid 19, je peux déduire sans problème que si la chloroquine est administrée alors on peut guérir de la covid 19… (mais aussi bien en administrant de l’oscillococcinum ou de la poudre de perlimpimpin).

Autre bizarrerie, contrairement à ce que l’on pourrait croire, en prenant trois propositions arbitraires, il se trouve que nécessairement deux au moins d’entre elles sont équivalentes, on peut en effet prouver :

(A <=> B) ∨ (A <=> C) ∨ (B <=> C)

ce qui, on en conviendra, laisse bien peu de place pour exprimer des propositions nuancées !

Et que dire des « individus » qui peuplent notre univers, ceux dont le nominalisme voudrait reconnaître comme seules entités « existantes » ? (voir la querelle des universaux). Outre que nous avons du mal à délimiter pratiquement ce que nous entendons par « individus » (cela dépend vraiment du regard adopté, suis-je un individu moi-même ? Ou bien ne faut-il pas plutôt considérer que ce sont les cellules qui sont des individus. Les micro-organismes ? Les virus?), il est très difficile théoriquement de dire quand nous sommes en présence de deux individus identiques ou différents. Ici intervient l’enjeu délicat de l’égalité. Quoi de plus simple et de plus répandu que le signe « = » ? et pourtant, est-il seulement défini ? Une relation d’équivalence comme une autre, appris-je en classe, oui mais alors comment la distinguer ? Leibniz eut la bonne idée de dire que deux individus sont égaux si et seulement s’ils ont exactement les mêmes propriétés (ce qui implique de nouvelles entités : les propriétés, et nécessiterait que l’on quantifie sur elles avec toutes les difficultés que cela comporte etc.).

t = u si et seulement si toute propriété de t est propriété de u et réciproquement

ah bon, mais immédiatement saute aux yeux une propriété de t qui n’est pas celle de u… la localisation spatiale (t est à gauche de u). De la délicatesse des individus et de leurs propriétés…

Tout ceci (et d’autres choses encore…) fait dire à Jean-Yves Girard que, décidément, non, la logique classique n’est pas la logique…

En passant, soulignons les aberrations d’une pensée totalement centrée sur ces vieilles querelles qui tournent autour de ce qui existe vraiment, les individus ou les propriétés (ou les concepts etc.). W. V. O. Quine a régi le monde de la philosophie américaine pendant presque un siècle, il s’inscrit dans la continuation de Russell et a donné, certes, quelques œuvres qui méritent d’être lues attentivement, mais il avait décidé une bonne fois pour toutes que seule la logique des prédicats du premier ordre était la véritable logique, allez savoir pourquoi… au nom d’un nominalisme enraciné. Il avait un solide mépris pour le second ordre (et aussi pour les logiques modales, qui, il est vrai, n’apportent guère à nos efforts, quoiqu’on en dise). D’où cette maxime célèbre : « être, c’est être la valeur d’une variable » (seul existe ce sur quoi peut porter un quantificateur). Une telle restriction de l’existence est typiquement ce qui peut sembler dangereux en ce monde qui demande à ce que l’on réfléchisse à bien d’autres entités que les individus… (l’idée quinienne est la même que celle jadis affirmée par les économistes néo-libéraux à la Hayek ou les politiciens à la Thatcher selon qui il n’y aurait rien de tel qu’une « société » – no such thing as society – puisqu’il n’y aurait que des individus !).

et les mathématiques dans tout ça ?

Pourtant, on notera que la logique dite classique fut bien utile quand il s’agissait de garantir la justesse des démonstrations mathématiques (justesse bien approximative avant Frege, du temps de Gauss et de Cauchy…), mais c’est que, du strict point de vue des mathématiques, tous ces défauts ne sont pas si importants. Lorsque l’on accepte de n’envisager une proposition mathématique que sous l’angle de sa bivalence (être fausse ou être vraie), il ne faut pas s’étonner que l’on ait beaucoup de propositions équivalentes ! Ou bien, il n’est pas grave d’avoir des règles de déduction un tantinet absurdes : on ne les utilise pas car elles sont inutiles, le mathématicien peut se permettre de les ignorer, la règle d’identité ne va pas ajouter des conclusions fâcheuses puisqu’il s’agit de répéter la même assertion… Quant à l’idée qu’un univers se doive d’être non vide, on s’en accommode sans difficulté (tant mieux même puisque cela peut éviter des sources d’ennui!). D’où il vient finalement que les mathématiques telles qu’elles sont ne sauraient être remises en cause pour autant. Bien sûr, comme dit plus haut en regard du théorème d’incomplétude de Gödel, on ne parviendra jamais à prouver leur cohérence. Peut-être viendra un mathématicien de l’an 3000 qui détectera une contradiction au cœur de l’édifice causant ainsi son effondrement, mais s’il est assez fort pour cela, sans doute aura-t-il dans sa manche une martingale pour reconstruire une super-mathématique…

Il nous faut nous résigner à notre condition humaine dans tous les domaines, même celui-là, ne sommes-nous pas dans l’impermanence ?

Tout ceci en tout cas semble légitimer le parti pris par Girard d’admettre comme support suffisant à ses travaux la bonne vieille théorie des ensembles, dite théorie ZF (pour Zermelo-Fraenkel). C’est donc sans aucun scrupule qu’on s’autorisera à parler d’ensemble de preuves, d’orthogonal ou de filtre ensembliste. (NB : c’est bien là le seul point commun que l’on peut trouver entre Jean-Yves Girard et Alain Badiou).

La vérité dans les preuves… et les réseaux de preuve

Il reste que ce n’est pas parce que la logique classique sert de bon outil technique (un bon marteau, une bonne clé anglaise, mais on ne demande pas à un marteau de faire plus que ce qu’il lui est possible de faire) qu’il faut l’admettre comme expression pure de la logique au sens où nous l’avons caractérisée précédemment comme soubassement du langage et même de notre monde.

Mais alors où saisir cette insaisissable logique ?

Ailleurs sans doute que dans les formules, les variables et les constantes « individuelles ».

Qu’est-ce qui peut être « vrai » ? des formules ? Mais comment vérifierions-nous leur vérité si ce n’est en nous référant à des modèles qui, par essence, ne sont que des transpositions du même sur un autre plan (car les logiciens des modèles ne font jamais que mettre en relation des langages les uns avec les autres, ils ne mettent jamais en relation un langage avec « la réalité » puisque celle-ci s’échappe à tout jamais…) ?

Une preuve, en revanche, peut être qualifiée de « vraie », elle le sera en effet si nous avons vérifié à chaque étape la correction d’une règle appliquée. Ici, nous répondons à la première question d’Ange Scalpel : 1. Comment la logique peut-elle être féconde, si ses inférences sont triviales (paradoxe de Mill) ? À laquelle lui-même répond par : « [Ce] problème peut être résolu si l’on caractérise le domaine de la logique non seulement comme celui de la vérité, mais aussi comme celui de la preuve et de l’inférence ». A quoi nous ajoutons que ce n’est pas seulement « aussi » qu’il faut dire, mais « avant tout », voire « seulement »… et que, autre façon de voir les choses, une preuve pourra aussi être qualifiée de « vraie » si nous avons pu vérifier un critère qui s’avèrerait être un critère de correction infaillible. C’est cela qui nous conduit aux derniers travaux sur « une logique sans système ».

Vérifier la validité d’une preuve en procédant pas à pas suppose que nous soyons au sein d’un système formel, avec ses règles et ses axiomes, reproduction de l’éternel achoppement, celui de notre pensée avec un cadre rigide dont les axiomes ont toujours une part d’arbitraire. La pensée est enrégimentée, corsetée au sein d’une axiomatique, celle-ci fût-elle « non classique » (c’est-à-dire intuitionniste, partielle, libre, dialogique ou… linéaire – au sens de la première version de la logique linéaire, exprimée en calcul des séquents, où l’on voit apparaître des êtres rendus nécessaires par le formalisme mais auxquels on a du mal à conférer un sens, comme des éléments neutres bizarres par exemple). La logique linéaire née en 1987 aura permis au moins de mettre à jour ces entités nouvelles et remarquables que sont les réseaux de preuve. Un réseau de preuve est un graphe (définition : un ensemble de points et d’arêtes, chaque arête reliant deux points) associé à une preuve. La logique multiplicative, celle qui possède comme connecteurs le « par » et le tenseur (℘ et ⊗) (« par » dénommé ainsi pour une lointaine référence au parallélisme, le tenseur étant un « et » multiplicatif, autrement dit une opération de cumuler une ressource avec une autre) et qui possède une négation, ou orthogonalité (interprétable comme changement de point de vue quand on se place dans une perspective dialogique), et qui permet de définir une implication particulière, dite « linéaire », A –o B par A –o B = A┴ ℘ B, c’est-à-dire « contre A je peux avoir B », permet de définir une notion de réseau assez facile : les connecteurs sont représentés par des liens de types différents – un lien est un mini-graphe avec deux arêtes chacune reliant la formule de départ à ses deux constituants reliés soit par un ℘ soit par un ⊗. On admet que les liens de type « par » sont en pointillés et les liens de type « tenseur » en traits continus. Un lien « axiome » est une arête qui unit un atome (formule sans connecteurs) à son orthogonal (soit A à A┴). On démontre (critère dit de Danos-Régnier) que la suite de formules à laquelle est associé le graphe est une preuve si et seulement si le graphe possède une propriété remarquable : toute sélection pour chaque lien « par » d’une des deux arêtes possibles (donc en pointillé) conduit à un graphe connexe et sans cycle.

des liens (celui de droite est en principe en pointillés)
un réseau correct
un réseau incorrect: quand les deux liens « par » du haut sont positionnés sur « gauche », on obtient un cycle.
cycle dans le réseau précédent en switchant deux fois sur G

Ayant vu cela, on se pose la question évidente : mais pourquoi s’en tenir à des preuves données séquentiellement et leur associer ensuite un graphe ? Pourquoi ne pas prendre pour premier objet le graphe lui-même ? Quitte à ce que d’autres construisent une preuve associée dans un système convenable ou… quitte à se passer complètement de « système convenable » ! Alors cela en sera fini de l’idée selon laquelle toute justification de loi logique serait arbitraire et circulaire, deuxième problème d’Ange Scalpel qu’il « résout » en affirmant péremptoirement que toute justification des lois logiques est nécessairement circulaire : car des lois logiques peuvent être justifiées par de simples contraintes objectives de l’espace de nos dires (nous y reviendrons), un peu comme nos déplacements spatiaux sont régis par des contraintes de géométrie.

Une logique sans système est-elle possible ? Comportements et autres desseins

Une logique sans système, c’est ce que propose Jean-Yves Girard dans sa série d’articles « Transcendantal Syntax » et dans son dernier « tract », « Le monstre de Gila »(*). Qu’on n’attende pas de moi ici que j’en donne une présentation claire et fidèle, ni que j’entre dans les détails techniques, ce dont je suis bien incapable, étant peut-être trop paresseux, ou trop ignorant des méandres d’une démarche dont les débuts remontent aux années 1970 (et au fameux système F, plusieurs fois pris en référence). Disons que Girard s’appuie sur quelques résultats essentiels comme le théorème de Herbrand (de Jacques Herbrand, logicien français des années vingt mort en montagne à l’âge de 23 ans, et qui fait partie des rares logiciens admirés par l’auteur), théorème permettant de ramener la preuve d’une formule de logique des prédicats du premier ordre à celle d’un ensemble fini de propositions, et qu’il reprend l’idée, déjà présente dans la ludique, que les preuves ne sont que les exemplaires d’un ensemble plus général de processus (les desseins, en ludique).

Pourquoi, à côté de preuves authentiques (dites visibles), faut-il des preuves invisibles ? L’un des arguments est que, pour éviter les simplifications outrancières du genre de celle mentionnée plus haut avec les trois propositions A, B, C dont toujours deux parmi les trois sont équivalentes, et qui dépend du principe du tiers-exclu (autre manière d’exprimer la bivalence), il est nécessaire de se garder… du vide ! Les intuitionnistes avaient déjà eu l’idée qu’une proposition consiste en l’ensemble de ses preuves (un peu comme si, dans le discours ordinaire, on disait qu’une assertion a pour contenu l’ensemble de tous les arguments qui la soutiennent), en ce cas, une proposition P est fausse si… elle est vide ! (elle n’a pas de preuve). Mais si nous gardons cette même idée, nous arrivons à ceci : étant donné que la négation en logique classique ou intuitionniste peut s’exprimer par A => ⊥, où ⊥ désigne l’absurde et est bien sûr représenté par l’ensemble vide, et que, selon la conception de Brouwer (et Kolmogorov), une preuve de A => B est toujours une fonction qui, à une preuve de A associe une preuve de B, une preuve de la négation de A est une fonction qui associe à une preuve de A… un élément du vide. Or l’ensemble des fonctions de A dans le vide n’est non vide que si A est vide ! (auquel cas, il y a une seule fonction, vide elle-même). Autrement dit, non-A n’est vrai que si A est faux, et si A est vrai, bien sûr non-A est faux, d’où le tiers-exclu… On échappera à cette trappe si toute proposition est un ensemble de desseins, dont certains seulement sont des preuves. En ce cas, P sera vrai si et seulement si P contient, parmi ses desseins, une preuve visible.

Mais entre temps, on n’aura plus parlé de propositions, mais de comportements, ce sera l’objet de mon prochain billet.

Heloderma suspectum, dit « le monstre de Gila » qui, même mort, mord encore!

(*) En grand cinéphile, Girard fait souvent référence à des films, ici « Le trésor de la Sierra Madre » de John Houston dans lequel figure un monstre qui a la particularité de continuer à mordre même mort. Ce monstre est ici utilisé comme métaphore du scientisme attribué à Hilbert, Russell, Tarski et quelques autres et qui continue à occuper les esprits alors que Gödel l’a mis à mort depuis longtemps.

Publié dans Philosophie, Science | Tagué , , , , | 5 commentaires

Logique de la logique (*) – I –

La logique: soubassement du langage

Beaucoup de ceux et celles qui me font l’amitié de me lire vont s’enfuir au galop, je ne saurais leur en tenir rigueur,
je n’oblige personne à tout lire ni à me suivre dans toutes mes divagations.
Aujourd’hui je parle de logique, et ce pour plusieurs raisons.
D’abord parce que c’est un sujet qui m’intéresse depuis mes dix-huit ans (au moins), ensuite parce que je crois que c’est un sujet qui intéresse tout le monde, et enfin parce que je pense que c’est une question qui touche notre situation contemporaine en plusieurs points, notamment dans notre rapport global à la vérité (fake news, sophismes) et dans nos croyances plus ou moins justifiées (en telle ou telle drogue par exemple).
Mon intérêt pour la logique dans mon jeune âge résulte bien sûr de celui que je portais aux mathématiques : celles-ci étant réputées basées sur la première, on se dit naïvement que si l’on a totalement intégré celle-ci on arrivera à reconstruire sans limites les secondes. C’est faux, bien entendu, un peu comme quelqu’un qui s’imaginerait que connaître parfaitement les règles du jeu d’échecs suffirait à faire de lui un champion… Et puis les mathématiques sont basées sur la logique classique (j’y reviendrai) ou, pour une toute petite part d’entre elles (aujourd’hui considérée comme assez folklorique) sur la logique intuitionniste (celle qui fut inventée par le mathématicien néerlandais Brouwer). Mais la logique classique, voire la logique intuitionniste, est-ce la logique ? Je vais y revenir dans quelques instants en m’appuyant sur les travaux de Jean-Yves Girard, lequel en doute sérieusement (Jean-Yves Girard est le grand logicien des dernières décennies, sa personnalité quelque peu provocatrice détourne de lui nombre de philosophes et de logiciens, mais ce sont ces derniers qui ont tort).

Qu’est-ce que la logique et pourquoi cela intéresse tout le monde ? La logique peut être simplement définie comme l’art de faire des enchaînements de phrases (ou de propositions, c’est-à-dire de phrases représentant des pensées) conduisant à des conclusions de telle sorte qu’il n’y ait rien à objecter à la manière dont elles s’enchaînent (s’il reste toujours possible d’objecter quelque chose aux points de départ). C’est en vertu d’elle que n’importe qui peut dire « oui, c’est logique » en entendant une argumentation, ou bien au contraire, « non, ce n’est pas logique ».
En disant « oui, c’est logique », on souligne une évidence. Et oui, le monde est ainsi fait qu’il contient quelques évidences… certaines sont empiriques (« la Terre n’a pas la forme d’un disque »), d’autres sont « logiques » (« si Pierre a eu un accident et qu’il a été durement touché, il n’a pas pu venir au rendez-vous que je lui avais fixé »). Cette faculté de produire de tels enchaînements, ainsi que celle de les reconnaître pour ce qu’ils sont (à savoir des arguments valides) sont fondamentales.

Ludwig Wittgenstein

On peut dire de ce point de vue que la logique est le soubassement du langage. Si, de plus, comme le dit Wittgenstein, « mon langage est la limite de mon monde », elle est aussi celui du monde. Mes doux amis littéraires peuvent bien s’offusquer et prétendre que la poésie est plus profonde encore, plus « ineffable », et qu’elle exprime mieux l’être (surtout s’ils sont heideggériens), je leur objecterai que la poésie paraît telle parce que justement il y a un soubassement du langage qui définit certains enchaînements comme « logiques » ou comme « réels » (dans ce contexte-ci, les deux qualificatifs ont quasiment le même sens) et que, grâce à cela, elle peut s’inscrire comme traçant des trajectoires transversales par rapport à eux, des court-circuits qui nous ravissent mais ne permettent pas de déplier tout notre monde (compte-tenu du fait que je ne crois pas beaucoup en l’opposition de « l’être » et de « l’étant » prônée par le philosophe de la Forêt-Noire).

Des pyramides de Ponzi…

Or, il faut bien dire qu’à cette intuition de ce qu’est (ou devrait être) la logique, correspond une « réalisation » peu satisfaisante. Au lieu de « réalisation », on pourrait dire aussi « projection ». Bon, allez, c’est un peu le mythe de la caverne qui recommence : dehors, une logique qui sous-tend le monde et notre langage, mais dedans, juste des ombres, des tentatives de formuler ou de formaliser la logique, qui restent au niveau des ébauches parfois simplement imparfaites, mais aussi parfois carrément caricaturales, grossières, pour tout dire : fausses. C’est là ce que n’ont pas voulu voir certains savants du XXème siècle, Russell, Tarski, Quine en particulier. Tout jeune apprenant achoppe sur les difficultés, les apories, et quand il en parle à son maître, celui-ci le rassure en le renvoyant à ses chères études : c’est qu’il n’a pas parfaitement compris. On revoit ici les désarrois du jeune Törless troublé par l’enseignement qu’on lui donne des mathématiques, et même, en allant plus loin, ceux du jeune Henry Beyle quand il a dix-huit ans et qu’on lui enseigne les parallèles (voir là-dessus « la vie de Henry Brulard »). Girard cite Philippe de Rouilhan : « c’est peut-être bien trop subtil pour que vous compreniez ». Quoi ? Qu’est-ce qui est « trop subtil » ici, et sur quoi tout écolier trébuche ? Les définitions bien sûr. Comme : qu’est-ce que la conjonction ? « A & B est vrai si et seulement si A est vrai et B est vrai », par exemple. Quelle différence entre « & » et « et » ? Ne faut-il pas avoir compris « & » pour comprendre « et » ? mais alors si c’est le cas, la définition est circulaire. Les logiciens « classiques » résolvent le problème en renvoyant à la notion de  métalangage. « & » appartient au langage-objet et « et » au métalangage. S’il suffisait de cela pour tout comprendre… Mais « et », par quoi est-il défini ? Oh, c’est bien simple, on n’a qu’à imaginer un « ET », formaliser le métalangage de niveau 1 et faire appel à un méta-méta-langage contenant « ET » et dire, cette fois, que « A et B est vrai si et seulement si A est vrai ET B est vrai ». Et ainsi de suite, de méta en méta… J-Y. Girard a une très belle image pour parler de cela : la pyramide de Ponzi, que connaissent bien les économistes : chaque niveau supérieur est supposé payer pour le niveau précédent… mais en réalité personne ne paie jamais ! (j’ai essayé cette technique durant le confinement, quand des chaînes ont circulé pour transmettre des poèmes, chacun devait envoyer un poème au premier de la liste reçue et recopier la règle de la chaîne pour vingt de ses amis, je m’attendais à obtenir 400 poèmes… et je n’en ai eu qu’un seul!). Girard a souvent aussi évoqué Madoff pour ce qu’il qualifie d’escroquerie.

Bernard Madoff

La logique dite « classique »: Russell etc. jusqu’à Gödel et la fin du scientisme

La logique classique, on le sait, se base sur les travaux de Frege puis sur ceux de Russell et Whitehead, qui publient en 1910 – 1913 leur « somme », qu’ils intitulent, en hommage à Newton, Principia Mathematicae. Ces Principia contiennent une axiomatique de la logique propositionnelle et de celle du premier ordre (la logique propositionnelle concerne les propositions en tant qu’entités in-analysées, comme « il pleut » ou « la Terre tourne autour du Soleil », la logique des prédicats du premier ordre procède à une analyse de la proposition en sujet et prédicat, par exemple, « Galilée est astronome » retranscrit par astronome(Galilée) où « astronome » est une fonction – un prédicat de premier ordre – et « Galilée » une constante individuelle. La logique des prédicats permet de remplacer les constantes par des variables, dont on suppose qu’il existe un « stock » : x, y, z, … de manière à obtenir astronome(x), formule possédant une variable dite libre, ce qu’on peut traduire par « il est astronome » où « il » est un pronom à la référence indéterminée, et ce qui surtout permet d’obtenir – par « quantification » sur une variable – ∀x astronome(x) ou bien ∃x astronome(x), à savoir : « tout le monde est astronome » et « il existe un astronome »).

Par axiomatique, on entend une liste de formules (ou de schémas de formules) considérées comme primitives, à partir desquelles des déductions peuvent être faites, qui ne sont réalisées qu’au moyen de règles de déduction bien définies (par exemple la plus fameuse est appelée modus ponens, elle consiste à dire que si nous avons A => B et A, alors nous avons forcément B, ou bien aussi les règles associées aux quantificateurs, comme celle qui dit que de ∀x A(x) on peut déduire A(u) pour n’importe quel u variable ou constante individuelles, ou bien de A(u) on peut toujours déduire ∃x A(x) etc. Ces axiomes et ces règles forment ce que l’on appelle un système formel. Comme on le voit, les déductions internes à un tel système ne font que manipuler des symboles, lesquels peuvent rester ininterprétés. On peut vouloir cependant les interpréter et alors, ces formules revêtiront les significations du langage ordinaire, par exemple « A => B » peut se lire « si A alors B », autrement dit n’est faux que si on a A et pas B, et « ∀x A(x) » : A est vrai de tout x. L’interprétation fait donc intervenir les valeurs « vrai » et « faux ». On souhaite évidemment que le système ne permette de déduire que des formules vraies (consistance), et de plus, plus difficile : qu’il soit capable de démontrer toutes les formules vraies (complétude). On arrive à obtenir un tel système pour la logique des prédicats du premier ordre (qui inclut la logique propositionnelle), grand succès (!) qu’on traduit en disant que (le système de) la logique des prédicats du premier ordre est consistant(e) et complet(e). On a bien sûr voulu aller plus loin et bâtir une axiomatique pour une théorie plus forte que la logique des prédicats du premier ordre, nommément : l’arithmétique (les nombres entiers). C’est là qu’intervient le fameux théorème de Gödel (1931): toute théorie qui inclut l’arithmétique est incomplète (autrement dit il n’existe aucun système formel d’une telle théorie qui soit complet, c’est-à-dire qui démontre tout ce qui est vrai pour cette théorie). Et ce théorème a pour corollaire que si une théorie est cohérente (ne contient pas de contradiction) alors sa cohérence ne saurait être prouvée de l’intérieur d’elle-même mais seulement par une méta-théorie qui la décrit. Et ainsi de suite bien sûr, la méta-théorie a son tour ayant besoin pour prouver sa propre cohérence d’une méta-méta-théorie etc. Où l’on retrouve, avec encore plus d’acuité, le phénomène des pyramides de Ponzi.

Et ce qui, une bonne fois, sonne le glas des espérances en une science qui prouverait sa propre vérité, pierre angulaire du scientisme.

Principia Mathematica

Comment tirer l’existant à partir de rien?

La logique dite « classique » contient de nombreuses apories qui n’ont pas manqué de surprendre celui ou celle qui veut l’appliquer. L’une d’elles concerne les deux règles mentionnées plus haut à propos de la quantification :

∀x A(x) permet de déduire A(u) A(u) permet de déduire ∃x A(x)

ce qui, par transitivité, donne : « ∀x A(x) » permet de déduire « ∃x A(x) ». Ce qui est assez étonnant… car c’est comme si, après avoir montré que toutes les licornes ont forcément quatre pattes (sous-entendu : si elles existaient alors elles auraient quatre pattes, comme on peut le voir sur les gravures du Moyen-Age(**)) on déduisait : il existe une licorne à quatre pattes, d’où, nécessairement : il existe (au moins) une licorne. De l’art de faire jaillir de l’existant à partir de rien (mais c’est vrai qu’avec un raisonnement du même ordre, Saint Anselme concluait à l’existence de Dieu).

Les logiciens classiques se débarrassent du problème en disant qu’en logique, on admet que l’univers de référence n’est jamais vide. Par exemple, on ne serait autorisé à faire le raisonnement ci-dessus que si on sait a priori que l’univers des licornes n’est pas vide (autrement dit en contient au moins une). Mais que cela soit clair : il n’y a rien de « logique » dans le fait de supposer que l’univers n’est pas vide ! La logique devrait aussi fonctionner sur des univers vides.

Que les non-logiciens ne me disent pas que cela est sans importance dans leur vie quotidienne, après tout, lorsqu’on nous dit que « la loi X est faite pour lutter contre les fraudeurs à l’assurance chômage » et que nous en déduisons mécaniquement qu’il y a donc des fraudeurs à l’assurance chômage, n’est-ce pas justement ce faux principe logique qui est mis en œuvre ?

Que la logique n’est pas pur discours

Je reviendrai sur d’autres étonnements (et leur portée pratique) dans mon prochain billet. Je note en attendant, simplement, ce que sont en général les interrogations des philosophes à ce sujet pour que nous y revenions ensuite. Pascal Engel (alias aussi Ange Scalpel) est un philosophe sérieux et réputé, appartenant à la mouvance « analytique » et donc, à ce titre, très averti des questions de logique. Dans un chapitre consacré à la logique d’un manuel de philosophie paru chez Eyrolles en 2007, il juge qu’il y a trois « paradoxes » à résoudre concernant la logique.

« On peut présenter certaines des questions philosophiques les plus importantes que soulève la logique sous la forme de trois problèmes et de trois paradoxes :1. Comment la logique peut-elle être féconde, si ses inférences sont triviales (paradoxe de Mill) ? 2. Comment la justification des lois logiques peut-elle éviter d’être arbitraire ou circulaire (trilemme d’Agrippa) ? 3. Comment la logique peut-elle être normative (paradoxe de Lewis Carroll)? »

Lewis Carroll… logicien et pédophile victorien

Ces questions témoignent d’une approche biaisée dont on peut dire qu’elle remonte à très longtemps (Aristote, logique médiévale puis Frege, Russell etc.) : il y est fait comme si la logique était un simple (mono-)discours agissant sur lui-même pour détacher des vérités. Le « paradoxe » de Lewis Carroll par exemple vient de là : si nous nous plaçons dans une perspective monologique (discursive), pour pouvoir déduire B de A et de A => B, il faudrait aussi que l’on ait : (A & (A => B)) => B, mais cela ne suffirait pas, il faudrait encore la loi (A & (A => B)) & (A & (A => B)) => B) => B et ainsi de suite (le lièvre s’éloignerait de plus en plus de la tortue). Or, nous verrons que la logique n’est pas cela, elle suppose toujours une forme de dialogue (ludique), exprimée aussi comme interaction (ou bien normalisation, réduction, orthogonalité etc.). Ce que Lewis Carroll ignore, et c’est bien normal, vue l’époque, c’est une règle fondamentale pour exprimer la dynamique des preuves, que l’on appelle règle de coupure. Ce qui répond aussi au premier « paradoxe » : la logique concerne les preuves avant de dire quelque chose sur les formules, et échappe ainsi à la trivialité…

Ceux et celles qui le souhaitent pourront me suivre sur ces sujets la semaine prochaine… !

(*) Evidemment ce titre peut être trompeur, en laissant croire à un niveau « métalogique » qui expliquerait la logique. Tel n’est pas mon propos: la logique de la logique est la (vraie) logique.

(**) Bien noter que pour démontrer ∀x (A(x) => B(x)), on fait l’hypothèse d’un x possédant la propriété A (sans autre propriété particulière) et on montre qu’il a alors nécessairement la propriété B, à aucun moment on ne dit que cet x existe !

Publié dans Académie, Langage, Science | Tagué , , , , , , | 10 commentaires

Foucault: faut-il du courage pour dire vrai?

Joie et curiosité lorsque je suis allé dans ma librairie favorite au premier jour du dé-confinement, d’y trouver le dernier cours donné par Michel Foucault au collège de France, en 1984, sous le titre : « le courage de la vérité ». Emotion d’abord, celle de lire les derniers mots d’un philosophe qui va disparaître du SIDA quelques semaines plus tard, retranscrits ici avec ce qui semble être un grand scrupule puisque même les interruptions par un bruit incongru (une mélodie pop issue d’un magnétophone suite à une fausse manœuvre !) sont mentionnées ; et celle de lire aussi que, dès le début de la première séance, Foucault fait référence à sa maladie qui l’a empêché de reprendre plus tôt son cours. Et puis curiosité, bien entendu, car si j’ai fréquenté la pensée foucaldienne dans ma prime jeunesse (vouant un quasi culte à son « archéologie du savoir », où se trouve enfermée toute une théorie des formations discursives qui devait longtemps m’influencer), je m’en suis éloigné par la suite, probablement sous la pression d’autres lectures qui m’orientaient vers des conceptions plus « analytiques » et « véri-conditionnelles » (influence de la logique, de la sémantique formelle etc.), et j’étais donc avide de renouer un contact. Je dois avouer que la façon usuelle dont on résume la pensée de Foucault, cette prétendue équation entre savoir et pouvoir, avait fini par me lasser. Si toute vérité repose sur un pouvoir, alors faut-il conclure que tout « dé-pouvoir » repose sur l’ignorance et le mensonge ? Ou dit autrement, si vous vous méfiez du savoir, essayez donc l’ignorance… Non, les choses ne vont pas ainsi. Foucault est malheureusement en grande partie responsable de cette dérive qui débouche aujourd’hui sur une remise en cause quasi systématique de la science. Or, ce n’est peut-être pas ainsi qu’il fallait le comprendre. Au début du moins, c’est-à-dire à l’époque de « L’archéologie du savoir » sus-mentionnée (1969), il s’agissait de montrer l’existence d’une généalogie, d’une histoire antérieure à tout établissement d’une science, ainsi de la linguistique, de l’anthropologie ou de l’économie, domaines instables s’il en est. Il faut, pour que les théories se stabilisent, « durcissent », beaucoup de tâtonnements et d’hésitations préalables – qui passent souvent par des prises de pouvoir sur les êtres et les choses – et peut-être est-il évident d’ailleurs que toutes ces disciplines en sont encore à ce stade aujourd’hui (qui croit en une science économique rigoureuse, « vraie »?). Foucault ne s’est jamais intéressé aux sciences exactes, laissant ce domaine à d’autres, plus compétents, mais il y eut à cette époque de très bons travaux aussi à propos des mathématiques (ceux de Pierre Raymond en particulier) qui montraient que même elles reposaient toujours sur des « pré-mathématiques », c’est-à-dire des notions élaborées pour certains horizons pratiques mais qui n’étaient pas encore entrées dans un vrai calcul. L’ébauche de la théorie des probabilités chez Pascal en fournissait un bel exemple. Mais aujourd’hui plus personne ne prétendrait que la théorie moderne des probabilités est « idéologique » ou qu’elle sert quelque pouvoir obscur tant elle s’est installée dans l’ensemble des mathématiques à titre de secteur comme un autre, qui entretient de multiples rapports avec les autres secteurs (théorie de la mesure, analyse fonctionnelle etc.). Personne ne dirait qu’elle est tributaire d’une épistémé particulière, puisque là était le grand concept foucaldien. La science ne relève pas d’une théorie générale des discours (ou des formations discursives) puisque tout l’effort d’une science consiste à se débarrasser des effets discursifs (métaphores et autres figures de style) pour ne maintenir qu’une écriture dont les termes désignent des entités expérimentalement observables ou justifiées par un calcul théorique (comme c’est le cas en mécanique quantique par exemple).

Mais toutes nos connaissances ne relèvent pas de cette science-là : les chasseurs-cueilleurs d’il y a 70 000 ans ne la possédaient pas et pourtant ils avaient d’innombrables connaissances. Les chasseurs-cueilleurs d’aujourd’hui, rassemblés en des peuples vivant aux confins du détroit de Béring (par exemple), qui ont des croyances animistes, en ont tout autant, il suffit de lire le livre de Nastassja Martin pour s’en rendre compte. Dans ce cas, les savoirs accumulés ne relèvent pas davantage d’une épistémé, ils sont enracinés dans les cerveaux des êtres humains qui les portent comme des prolongements de leurs aptitudes biologiques. Et l’évolution d’Homo Sapiens les en a souvent privé.

Ce qu’apporte Foucault dans ses derniers travaux semble être tout à fait différent. Dans sa leçon du 1er février 1984, il dit ainsi que s’il continue de penser « qu’il est important d’analyser, dans ce qu’elles peuvent avoir de spécifique, les structures propres aux différents discours qui se donnent et sont reçus comme discours vrai, l’analyse de ces structures [étant] en gros ce qu’on pourrait appeler une analyse épistémologique », il n’en reste pas moins « qu’il serait également intéressant d’analyser, dans ses conditions et dans ses formes, le type d’acte par lequel le sujet, disant la vérité, se manifeste, et par là […] se représente à lui-même et est reconnu par les autres comme disant la vérité ». En somme, est-il dit également au cours de cette leçon, « il s’agirait d’opérer un triple déplacement – du thème de la connaissance vers celui de la véridiction, du thème de la domination vers celui de la gouvernementalité, du thème de l’individu vers celui des pratiques de soi ».

Foucault analyse dans ses tout premiers cours de 1984, les diverses figures du dire-vrai à l’âge antique. Il commence par établir une classification des types de discours en fonction de leur rapport avec cette exigence de vérité. Il différencie ainsi le prophète, le sage, l’enseignant et l’authentique « parrêsiaste ». Ce dernier est défini comme un sujet qui s’expose, qui cherche à dire la vérité quoiqu’il lui en coûte, et souvent il lui en coûtera de perdre des amis, de susciter de la colère ou, au moins de l’irritation : « Pour qu’il y ait parrêsia, il faut que le sujet, en disant cette vérité qu’il marque comme étant son opinion, sa pensée, sa croyance, prenne un certain risque, risque qui concerne la relation qu’il a avec celui auquel il s’adresse. Il faut pour qu’il y ait parrêsia que, en disant la vérité, on ouvre, on instaure ou on affronte le risque de blesser l’autre, de l’irriter, de le mettre en colère et de susciter de sa part un certain nombre de conduites qui peuvent aller jusqu’à la plus extrême violence » (p. 12). Où il apparaît que pour qu’il y ait parrêsia, il faut être au moins deux et dans cette dualité on ne sait plus trop à qui adresser la qualité de parrêsiaste. On pense, et Foucault visiblement y pense aussi puisqu’il cite ce duo plusieurs fois, à l’analysant face à son psychanalyste, situation où il est bien sûr question, peut-être plus que dans toute autre à notre âge moderne, de dire la vérité sur soi, en poursuivant de plus un but de meilleur gouvernement de soi, mais il semble plutôt que dans cette paire, celui qui prend des risques soit l’autre, c’est-à-dire le psychanalyste puisque c’est lui qui, en délivrant par moment un signe, une objection, un doute, conduit l’analysant vers une vérité, mais au risque que celui-ci la refuse, la rejette et en nourrisse une colère face à son vis-à-vis (on s’amuse de beaucoup d’histoires de patients assassinant leur psychiatre…), à moins que les risques ne soient partagés puisque, dans le fond, l’analysant ne peut aller mieux, rejoindre son moi, qu’en supportant d’être mis en cause dans ses certitudes, ce qui, bien sûr, n’est jamais agréable au premier abord. Plutarque, Démosthène ont parlé de manière approfondie de la parrêsia. Foucault l’oppose à la rhétorique qui, elle, n’est qu’une méthode pour exposer des choses que l’on veut faire passer pour vraies même si on ne les croit pas forcément vraies. La rhétorique n’engage jamais le rapport de celui qui parle à la vérité, elle semble dire : qu’importe ce que vous pensez, si vous avez intérêt à ce qu’autrui pense telle ou telle chose, voici comment vous devez vous y prendre. On pense à la figure de l’avocat en son prétoire, soumis à une loi peut-être plus forte, ou qu’en tout cas il pense plus forte, que celle de la vérité, celle selon laquelle tout accusé à droit à une défense. Le prophète, comme le parrêsiaste, a pour fonction ou projet, lui aussi, de dire le vrai, à cette différence qu’il est toujours en position de médiation, il se fait le relais d’une parole, en général perçue comme divine, de plus, contrairement à ce que dit le parrêsiaste, la parole du prophète est souvent obscure, elle n’a pas pour mission d’être décryptée immédiatement comme un dire transparent, au contraire, plus elle est énigmatique, plus elle est forte. Lacan disait : « si je parle difficile, c’est pour que l’on m’entende ». Le prophète pourrait lui aussi s’exprimer ainsi. Une autre parole est celle du sage, mais « le sage tient sa sagesse dans une retraite », il n’a pas vraiment besoin de parler, son message passe par sa seule présence, par le fait d’être reconnu pour sage, là où le parrêsiaste, lui, doit s’escrimer, n’ayant rien d’acquis, rien qui le fasse reconnaître autrement que par ce qu’il dit. Et la dernière figure évoquée est celle de celui qui enseigne. Celui-ci s’appuie sur une tekhné, il sert d’intermédiaire, se fait chaînon dans une chaîne de transmission. Seulement il n’est pas comme le prophète qui est l’intermédiaire d’une parole divine, ce que dit l’enseignant n’a rien à voir avec une telle parole, c’est juste un savoir acquis que l’on transmet. L’enseignant se doit de dire le vrai, bien entendu, mais il ne lui faut aucun courage particulier pour cela, on pourrait dire à notre époque… qu’il est payé pour cela ! Comme dit Foucault (p. 24) : « tout le monde sait, et moi le premier, que nul n’a besoin d’être courageux pour enseigner ». Or, dirai-je en ajoutant mon grain de sel, voilà qui est curieux, Foucault dit cela au moment même où, atteint par la maladie, il se sait condamné et sachant cela, il pourrait justement cesser d’enseigner, et c’est là où nous nous disons au contraire : « quel courage ! », mais il faut reconnaître que ce courage-là n’est pas au niveau de celui du parrêsiaste. Ce dernier est courageux par le contenu de ce qu’il dit, alors que Foucault l’enseignant, lui, est courageux non pas par ce qu’il dit mais par le fait qu’il préfère le dire à ne pas le dire, quoiqu’il lui en coûte d’effort.

Quatre figures propres à l’âge antique donc, mais que l’on ne retrouve pas nécessairement à notre époque où ces rapports à la vérité sont brouillés. Sans doute mettrai-je (encore) mon grain de sel personnel en pensant que c’est le surgissement de la Science à partir du XVIème siècle et particulièrement depuis le XXème qui est en grande partie responsable de l’éclatement de cette quadrilogie. Comment parler du rapport au vrai aujourd’hui sans parler du rapport à la vérité scientifique ? Sans dire ce qu’il en est au juste de celle-ci, surtout au moment où elle est remise en cause dans ses fondements pour cause d’urgence à soigner les malades atteints par la pandémie (affaire Raoult etc.) ? Le régime de vérité du scientifique est sans arrêt mis en cause par les intérêts, la connaissance est instrumentalisée, elle a un coût chiffrable en millions de dollars. Nous ne sommes plus face au savant d’Aristote. Et pourtant, l’idéal de la science persiste à n’en pas douter chez la majorité des chercheurs et le rapport de ces derniers à la vérité demeure exigeant : il est louable qu’en temps de crise où des fortunes sont à faire (ou à défaire) autour d’un médicament ou d’un vaccin, on entende encore dire par la majorité d’entre eux qu’il faut un temps long pour répondre aux questions qu’on se pose, qu’une expérimentation sérieuse ne se fait pas en quelques mois.

Comme au temps de la tekh, le rapport du scientifique à la vérité est médiatisé par une méthode, une technique voire une machine. Le rapport du scientifique à la vérité est sous l’autorité de l’administration de la preuve, quelle meilleure caractérisation du scientifique d’ailleurs que celle que donnait Bachelard en le qualifiant de « travailleur de la preuve » ?

Seulement, l’aporie où tombe la science est celle du scientisme : il s’agit, dans l’effort de méthode et de rigueur qui caractérise le scientifique, de franchir une ligne, celle à partir de laquelle on veut interdire qu’il existe d’autre type de savoir valide, que toute autre approche de la vérité doit être bannie, en somme croire que la science peut tout dire (un jour viendra où…), idéal du début du XXième siècle, incarné par Hilbert au sein des mathématiques : toute théorie sera mathématisée et pour toute proposition exprimée dans la langage mathématique, on saura dire si elle est vraie ou si elle est fausse, il suffira de s’en remettre à un système formel autrement dit une axiomatique, sorte de machine, très bien réalisée de nos jours par l’ordinateur. Seulement voilà, il fut démontré dans les années trente (déjà!) qu’un tel espoir était vain : théorème d’incomplétude de Gödel, mais aussi démonstration de l’indécidabilité du problème de l’arrêt etc. et il n’y a aucun moyen de contourner le théorème de Gödel… Ici se révèle une Vérité… une vraie ! Vérité donc toute négative mais peut-être le sont-elles toutes…

Comme dit plus haut, la science est subordonnée à l’administration de la preuve, mais celle-ci, quand elle devient mécanisée (et elle ne tarde pas à l’être comme toute procédure codée, incluse dans un protocole précis) peut prendre le pas sur le sujet, c’est ce dont prévenait Giuseppe Longo dans un article sur les mathématiques datant de 1997 : le théorème des quatre couleurs(*) a été « démontré » mais la démonstration est si complexe (les cas à énumérer sont si nombreux) qu’elle n’a pu être vérifiée que par une machine. Mais quelle machine vérifiera la correction de celle-ci ?

La figure du scientifique est parasitée par celle du mage qui, en un sens, n’est pas si éloignée que cela de celle du prophète de l’âge antique dans la mesure où, comme lui, il tient sa parole dite « vraie » d’un ailleurs, qui n’est plus forcément Dieu, mais peut être autre chose, par exemple à notre époque contemporaine, ce sera souvent la Nature. Une nature divinisée bien entendu, qui s’exprime au travers de la parole du mage là aussi de manière énigmatique, faisant appel à des pratiques analogues aux rites que le prophète accomplit, mais ce sera ici des impositions de main, des formules magiques, des propos prononcés à l’insu du patient, ou tout au moins de celui qui vient rendre visite. La vérité qu’expose le mage a le mérite d’être intemporelle, de ne pas reposer donc sur des démarches longues et fastidieuses, c’est cela qui la fera préférer par certains interlocuteurs.

À côté des régimes de vérité incarnés par le scientifique (qui culmine dans le scientisme) ou par le mage, figure aussi celui incarné par le journaliste. Je n’aime pas la caricature, aussi ne parlerai-je pas des liens de subordination du journaliste envers le propriétaire du journal, souvent un milliardaire, c’est vrai, en termes de réception d’ordre direct de sa part, les rapports me paraissant beaucoup plus complexes (le journaliste moderne n’est pas contraint par la menace à dire ce qui plairait au commanditaire, il est essentiellement sous la contrainte de faire vendre le journal auquel il collabore ou de faire regarder la chaîne de télévision ou le site Internet où il vend ses services). A l’âge moderne, l’information est devenue une denrée qui se monnaye, ce qu’elle n’était pas à l’âge antique.

Le régime de vérité incarné par le scientifique et celui incarné par le journaliste se rencontrent à l’occasion de crises comme celle que nous venons de vivre, la méthode d’administration de la preuve dont se prévaut le premier entre alors en conflit avec le désir de vendre, lequel pourra peut-être être mieux satisfait par les propos du mage.

Le travail de Foucault aurait mérité d’être continué. Dans une de ses leçons il explique pourquoi il lui est difficile de parler de l’époque contemporaine. Parler de l’Age antique, dit-il, nécessite juste que l’on se pare des 200 volumes de la collection Budé et qu’on les lise dans la solitude d’une retraite studieuse, alors que parler de l’âge actuel ne peut se faire à un seul, requiert une équipe. Foucault aurait aimé avoir la possibilité d’un « séminaire fermé » ce qu’interdisent les statuts du Collège de France, cela lui aurait permis de constituer cette équipe. Mais ni le droit ni l’état des connaissances médicales ne lui ont donné cette possibilité. Je ne vois pas actuellement (mais je me trompe peut-être, je me trompe sûrement, mon savoir en la matière est loin d’être exhaustif) de travaux portant sur les régimes de vérité à l’époque contemporaine. Sans doute parce que le sujet est trop vaste, me répondront certains, qu’il y faut inclure de l’économie et de la sociologie des réseaux et peut-être (ce que se gardait bien de faire Foucault semble-t-il) un peu de psychanalyse. En tout cas, ce qui se passe sur les réseaux, ces nouveaux « media », est fascinant et mérite d’être exploré. Quel est le ressort, par exemple, de cette exposition permanente des sujets sur les réseaux sociaux, et notamment Facebook, alors que tout leur dit qu’ils sont ainsi en permanence suivis et dépossédés de leurs croyances intimes au moment même où ils les exposent naïvement ? Comment se fait-il qu’une application de traçage contre les pandémies soit à ce point fustigée par ceux-là même qui confient en toute confiance et par leur pure volonté leurs réseaux d’amis à l’observation du monde entier ? Il faudra bien un jour répondre à ces contradictions apparentes. Elles font partie des questions sur les régimes de vérité qui s’instaurent.

Cela nous concerne donc désormais, nous qui sentons obscurément le besoin d’écrire et de parler en notre nom et en « disant le vrai », c’est-à-dire ce qui nous semble à nous comme étant ce qu’on appelle souvent « notre vérité » en un sens dont il faut bien dire qu’il nous paraît flou. Qu’est-ce par exemple que cette manière de balancer à la façon d’un métronome, chaque semaine, un billet de blog par exemple. Pour y dire quoi ? Si ce n’est ce que nous avons réellement pensé au cours de la semaine, à propos de tel ou tel livre, de tel ou tel spectacle voire même à propos de rien, juste pour dire une chose qui sera telle qu’une fois dite, nous nous sentions débarrassé du soucis de la dire, en quelque sorte plus libre, content d’avoir accompli un devoir et prêt déjà à attaquer ce que nous allons dire la semaine suivante. Cet acte régulier, ce rituel, que disent-ils de nous et, plus généralement de l’acte d’écrire ? Nous sentons confusément qu’il a bien trait à ce vers quoi pointe Foucault en nommant la véridiction, la gouvernementalité et les pratiques de soi. Toutefois, il ne faudrait pas exagérer la portée de notre geste ; si nous parlons ou écrivons ainsi, d’une manière qui consiste à viser une certaine vérité, il ne nous faut pour cela aucun « courage » particulier, nous ne nous exposons pas (sauf parfois à quelques critiques, mais qui ne sont guère méchantes et nous laissent tout loisir de répondre), nous ne sommes pas dans la peau du parrêsiaste dont Foucault nous trace le portrait. La question reste donc entière et nous n’avons pas un Foucault (voire plusieurs) pour nous éclairer sur ces pratiques étranges et récentes par lesquelles il faut bien dire que beaucoup d’entre nous entendent en grande partie se construire comme sujets ne serait-ce qu’en se donnant des règles et notamment celle d’écrire. Mais s’agit-il seulement d’écrire ou bien d’écrire le vrai ? Je ne sais pas répondre à cette question… je vois après tout beaucoup de choses qui s’écrivent sans que pour autant je ressente en elle une intention d’écrire la vérité

(*) cf. Wikipedia : Le théorème des quatre couleurs indique qu’il est possible, en n’utilisant que quatre couleurs différentes, de colorier n’importe quelle carte découpée en régions connexes, de sorte que deux régions adjacentes (ou limitrophes), c’est-à-dire ayant toute une frontière (et non simplement un point) en commun reçoivent toujours deux couleurs distinctes.

Publié dans Philosophie | Tagué , , , , , | 6 commentaires