J’ai toujours été très intéressé par une chose : savoir comment nous nous comprenons (ou nous ne nous comprenons pas), cela a motivé une grande partie de mes études puis de mes recherches. La linguistique y tient un grand rôle bien entendu. Mais pas seulement. Après tout, lorsque nous constatons un événement ou que nous faisons une observation sur le monde physique, entre en jeu également une composante de « compréhension » : nous comprenons ce que le monde « nous dit ». Cela a commencé avec le langage. Je n’ai pas cherché à élucider une quelconque empathie, une notion de compréhension « profonde » comme celle à laquelle on aspire quand on est très jeune et qu’on se croit fondamentalement « incompris », non. Le « mystère » du langage réside simplement dans le fait qu’au moyen de vibrations de l’air, ou de traces sur un support, nous puissions échanger des messages et en comprendre le sens (ou avoir l’impression d’en comprendre le sens, mais cette différence que d’aucuns sans doute trouvent fondamentale entre le vrai et son illusion, n’est pas si importante : ce qui compte, c’est l’effet. Que celui-ci repose sur une certitude ou une illusion importe peu). Le grand Nāgārjuna l’a bien exprimé dans le Vigrahavyāvartani (texte fondamental de la fameuse Voie du Milieu):
(même) votre affirmation que toute chose est vide doit aussi être vide.- Pourquoi ? – Parce que votre affirmation n’est ni dans sa cause – les quatre grands éléments pris collectivement ou par groupes – ni dans ses conditions, les efforts faits dans la poitrine, la gorge, les lèvres, la langue, les dents, le palais, le nez, la tête etc. – ni dans la combinaison des deux. […] Puisqu’elle n’est nulle part, elle est dépourvue de nature intrinsèque, et donc elle est vide..
vide ne signifie pas absence ou rien. Vide peut s’entendre : avec une structure, ou ne consistant qu’en une structure. Bien entendu, on me dira, oui mais le langage parlé est substance, celle des sons en l’occurrence mais il y a longtemps que l’on sait que ce n’est pas le son brut qui fait langage. Les travaux en neurosciences montrent que ce ne sont pas les mêmes aires du cerveau qui sont stimulées par un son brut et par un son « linguistique » (autrement dit un phonème ou un assemblage de phonèmes). Le son linguistique possède déjà sa structure et c’est celle-ci à laquelle notre cerveau réagit lorsque nous entendons quelqu’un parler.
Une des questions les plus pertinentes que l’on puisse se poser à un niveau supérieur à celui du son ou du morphème est celle de savoir comment nous comprenons les phénomènes de renvoi, de coréférence dans la phrase, au moyen notamment des pronoms. Tout locuteur du français sait interpréter une phrase comme « il croit que son père lui doit encore de l’argent » malgré la présence de trois expressions indéterminées « il », « son » et « lui ». « Son père » peut renvoyer au père de celui auquel réfère le pronom « il » comme il peut renvoyer au père d’une tierce personne qui n’est pas encore mentionnée dans le discours. Une indétermination est encore présente avec « lui doit de l’argent », « lui » renvoie-t-il au « il » du début ou bien à cette même tierce personne supposée ? On ne sait pas vraiment mais il faut admettre que l’éventail des possibilités est assez restreint, bien délimité par la syntaxe de la phrase. Supposons qu’intervienne le « contexte » exprimé par une question, comme : « est-ce que tu sais pourquoi Paul est soucieux ? », alors les choses s’éclairent un peu : il y a de grandes chances pour que le sens à donner soit : Paul croit que [le père de Paul] doit encore de l’argent à [Paul]. Bien sûr, cela n’est pas sûr, il aurait pu être question d’une Emilie quelques instants plus tôt, de telle sorte que le sens soit : Paul croit que [le père d’Emilie] doit encore de l’argent à [Emilie], voire : Paul croit que [le père d’Emilie] doit encore de l’argent à [Paul], ou même Paul croit que [le père de Paul] doit encore de l’argent à [Emilie]. Si le contexte était : « est-ce que Paul sait si Emilie a bien reçu tout ce que son propre père lui devait ? », le faisceau des interprétations possibles se restreint encore. On peut évidemment édicter des règles, dites « règles de grammaire » pour indiquer les interprétations possibles et celles qui ne le sont pas, ou pour diriger le destinataire vers une interprétation plausible. En un tel cas, le locuteur récepteur « ferait un calcul » basé sur ces règles pour finir par dire ce qu’il pense être l’interprétation correcte, et ce calcul interprétatif mettrait un certain temps pour s’accomplir. Les règles explicitées ne seraient de plus que des consignes à suivre et il faudrait faire confiance à un « sujet » c’est-à-dire à un deus ex machina hors calcul pour les appliquer correctement (les philosophes savent ce que cela implique comme problème… « Qu’est-ce que suivre une règle ? » se demandait l’illustre Wittgenstein…). Dans les faits, les choses ne se passent pas comme cela : l’interprétation est quasi immédiate. Autrement dit, la phrase à interpréter se superpose au contexte pour que les pronoms (qui agissent ici comme des variables mathématiques) prennent les bonnes valeurs, et cette superposition est immédiate, mécanique, ne nécessite même pas d’apprentissage. En cela résident les phénomènes de compréhension ou d’interaction auxquels je m’intéresse. Une phrase P trouve une interprétation en rencontrant un contexte C avec laquelle elle interagit. On écrit : P_|_C. Cela se traduit par le fait que si P possède des variables, celles-ci sont instanciées au cours de l’interaction avec C, et cette interaction est quasi immédiate pourvu que les objets P et C aient reçu une bonne représentation de leur structure.
Dans mes travaux antérieurs, menés conjointement avec des amis chercheurs de Marseille et de Paris, j’ai utilisé les outils proposés par le logicien Jean-Yves Girard pour représenter ces idées. P et C sont des « desseins », sortes d’abstractions de termes, que l’on appelle parfois des « lambda-termes » dans le cadre du lambda-calcul inventé par Church dans les années 1930. Une parenthèse importante ici : les lambda-termes fournissent un modèle de calcul très puissant qui permet de rendre compte de tout calcul informatique (du genre des opérations que nous accomplissons chaque jour sur notre ordinateur personnel), cela signifie que tout programme informatique peut s’écrire comme une combinaison de tels termes au moyen d’opérations de composition, de produit, de minimisation effectuées de manière itérée autant de fois qu’on le veut. Le lambda-calcul de Church a fourni la base des premiers langages dits « fonctionnels », en premier lieu le langage LISP qui date de vers 1958 (un bail!). Ce qu’il apportait de neuf et qui était proprement suffoquant pour le modeste matheux qui tentait d’apprendre l’informatique que j’étais alors, était le fait que programmes et données avaient exactement la même syntaxe, autrement dit il était possible de prendre une fonction pour une donnée, d’appliquer une fonction à une fonction et même… une fonction à elle-même. On pouvait obtenir des termes très grands (traduisant par exemple le fait d’appliquer un programme à un autre) mais dont on ne connaissait pas le « résultat » tant qu’on n’avait pas effectué le calcul. Mais ça ne fait rien… ils étaient transportables (nous verrons plus loin pourquoi j’éprouve ici le besoin de dire cela). Les « desseins » (terme pas très approprié à mon goût, à cause de ce qu’il recèle encore d’intention, de projet, là où en fait, il n’y a que des réseaux, des sortes de toiles d’araignée qui se connectent ou ne se connectent pas) sont les objets classiques de la « ludique », formalisme inventé par Girard pour marier la notion de jeu à celle de preuve. (Oui, jeu, car dans dessein il y a stratégie, quant à « preuve » cela ne vient de ce que l’on sait qu’en principe un lambda-terme représente une preuve, au sens suivant : il est possible d’associer à toute règle d’introduction ou d’élimination d’un connecteur logique dans une preuve « intuitionniste » une opération fondamentale du lambda-calcul, de sorte qu’un terme finisse par être le décalque d’une preuve). En fait, la notion fondamentale de la ludique est celle d’interaction. Nous partons donc de l’hypothèse que tout est interaction. Bizarrement, c’est la même hypothèse que celle que nous avons évoquée la semaine dernière par le biais de l’interprétation relationnelle de la mécanique quantique proposée par Carlo Rovelli.

Nous vivons dans un monde hyperconnecté… et lorsque je dis cela, je ne fais pas référence aux GAFAM, lesquelles ne font qu’explorer le filon à leur plus grand profit. Mais nous étions hyperconnectés avant les GAFAM, avant Internet. Internet a, si l’on veut, épaissi le trait pour nous le rendre plus visible. Ce monde hyperconnecté a ses régions. J’en vois deux qui me tendent les bras : Logos et Cosmos. Logos c’est l’univers de la compréhension et du langage, de l’échange des mots et des paroles, des structures vides qui véhiculent « du sens », alors que Cosmos est l’univers des particules et des galaxies, l’univers de l’interaction au sens quantique que nous avons vu précédemment. Il est encore trop tôt pour parler des liaisons entre ces deux régions… D’autres que moi ont depuis longtemps remarqué qu’elles conviaient les mêmes instruments mathématiques (par exemple la théorie des catégories, qui s’applique aussi bien au langage – calcul de Lambek etc. – qu’à la physique – diagrammes de Feynman etc.). Mon point de vue est que bien sûr, elles ont partie liée. On ne fait pas de logique sans physique dit Girard, j’ajouterai même que le langage est de la partie. J’en viens donc au point soulevé par J-Y. Girard dans son dernier « tract » (c’est comme cela qu’il appelle désormais les textes qu’il lance à la cantonade, qui n’ont pas le format d’articles publiables, et sont trop courts pour être des livres ou des brochures) qui s’intitule : Schrödinger’s cut. On voit bien sûr le jeu de mot : cat / cut. Cut est le mot anglais qui se traduit en français par « coupure ». La coupure est une opération fondamentale dans l’espace logique des preuves, c’est celle qui consiste à brancher une preuve sur une autre. La démarche est simple : si vous avez besoin d’un lemme L pour prouver un théorème T, vous allez essayer de prouver L et, par transitivité, si vous avez une preuve de L et si vous savez que de L on peut déduire T, alors, l’affaire est dans le sac : vous avez prouvé T ! En publiant votre preuve de T, vous ferez mention du fait que le lemme L a été démontré (quelque part… on ne veut pas forcément savoir où). Il y a évidemment de l’implicite là-dedans, c’est-à-dire : il faut que votre interlocuteur vous fasse confiance. Mais s’il ne vous fait pas confiance, vous lui apportez la preuve de L, et même vous branchez la preuve de L sur la preuve de T, et vous n’en faites qu’une seule preuve ! Vous lui dites : ça y est, t’es content ? Bref, vous avez explicité le mécanisme de la preuve de T. Un théorème très important qui date de 1934, et qui est du à Gentzen, dit ceci d’incroyable ; que dans certains bons systèmes de logique, la possibilité de faire une coupure n’apporte pas de richesse supplémentaire au système, il existe un algorithme qui permet d’éliminer l’occurrence de la règle de coupure et donc de vous fournir une preuve sans coupure. L’élimination des coupures, qui est souvent aussi appelée « normalisation », est l’essence du calcul informatique, c’est-à-dire du passage de l’implicite à l’explicite en quoi se caractérise tout calcul. Mais c’est aussi le paradigme à partir duquel on peut penser l’interaction car au cours de l’élimination de la coupure, des tas d’effets de bord peuvent se produire, dont la transmission de valeurs à des variables.
Or, si nous revenons à nos exemples langagiers antérieurs, lorsque nous avons le dialogue :
– est-ce que Paul sait si Emilie a bien reçu ce que son père lui devait ?
– il pense que son père ne lui a pas donné tout ce qu’il lui devait
nous avons une coupure entre les deux énoncés et lorsque nous résolvons les pronoms (« il » = « Paul », « son père » = « le père d’Emilie », « lui » = « Emilie »), alors nous éliminons cette coupure, par passage à l’explicitation du « sens » de la phrase. D’où mon aphorisme favori : « langage is cut-elimination ». (Il faut bien sûr considérer que les phrases échangées sont des « desseins », je dirai désormais simplement « réseaux » et que c’est leur simple coprésence dans une région de l’espace-temps partagée par les deux locuteurs qui provoque l’élimination de la coupure, sous la forme d’une opération mentale qui a son siège observable dans les cerveaux des locuteurs, ainsi « mis en résonance »).
Il est intéressant et réjouissant que Girard fasse référence au même mécanisme dans le cas de la physique quantique. Je tâcherai d’expliquer ça la semaine prochaine.
Noter au passage que l’excellent petit livre de Mark Alizart (dont j’ai parlé ici), intitulé « Informatique céleste » donnait déjà un bel aperçu de ce que les opérations de normalisation et d’élimination des coupures permettaient de comprendre du cosmos et du logos (mais dans une perspective strictement hégélienne).