A quoi peut bien servir la logique ? – 1 – L’importance du calcul

Philosophons un peu… Il y a longtemps que je n’ai pas cédé à la tentation de faire part à mes lecteurs de mes réflexions concernant logique, philosophie, mathématiques, langage etc. C’est le moment de commencer une nouvelle série sur ce blog… il y aura donc plusieurs épisodes ! (entrecoupés sans doute de billets qui n’auront rien à voir… la vie continue pendant les travaux).

ic2948_crouch800.1208674886.jpg
(The Running Chicken Nebula – photo APOD )

Les logiciens sont suspects aux yeux du grand public. A quoi peuvent-ils bien servir ? Même les mathématiciens raillent l’importance qu’ils se donnent, surtout dans la tradition française (Poincaré, Dieudonné, l’école des Bourbaki etc.). Un bon mathématicien d’aujourd’hui vous dira que la logique ne lui sert à rien… car, il sait bien, lui, quand son raisonnement est correct, et il n’a pas besoin d’un inspecteur des travaux finis qui viendrait à sa suite pour lui dire « s’il a fait une faute ». Les philosophes s’intéressent à la logique essentiellement dans la tradition anglo-saxonne de la philosophie analytique (pour la connaissance de laquelle Jacques Bouveresse, dont je parlais il y a peu, a fait beaucoup dans le monde francophone), mais peu dans la tradition française. Cela tient en partie au fait que les grands logiciens français, ceux sur qui une tradition originale aurait pu se fonder, sont morts jeunes : Jacques Herbrand dans un accident de montagne en 1931 (à La Bérarde) et Jean Cavaillès fusillé par les nazis en 1944. La logique aurait pu sombrer dans l’ennui, la grisaille et l’oubli si l’informatique ne lui avait donné une formidable impulsion à partir des années soixante, années pendant lesquelles a éclos une nouvelle génération de logiciens en France comme à l’étranger, tournés vers des questions très différentes de celles de leurs prédécesseurs, citons pour la France principalement Jean-Louis Krivine, Jean-Yves Girard, Pierre-Louis Curien et bien d’autres. Pour simplifier à l’extrême, ces questions touchent non pas à « la vérité », mais à notre connaissance abstraite des processus calculatoires, lesquels se produisent évidemment dans nos machines (d’où le rôle dynamisant de l’informatique) mais aussi… tout autour de nous ! La vie calcule (la reproduction de l’ADN repose sur une machinerie), nos cerveaux calculent, et même… l’univers calcule. On oublie souvent que l’infini, le vrai infini n’existe pas. C’est une « facilité » que se sont donnés les analystes mathématiciens classiques (depuis Newton et Leibniz) et qui marche en effet très bien : le physicien calcule sur la base de modèles continus, et il utilise des fonctions de variables réelles. Mais, on le sait depuis Dedekind et Cantor, la définition de l’ensemble des réels est ardue et conduit à faire l’hypothèse de l’existence d’un ensemble dont le nombre d’éléments est un infini d’ordre très supérieur à l’infini (dit « dénombrable ») des nombres entiers. Les nombres que l’on rajoute, pour obtenir cet ensemble (les « irrationnels ») sont d’ailleurs eux-mêmes aussi nombreux que ceux qui composent tout l’ensemble… Tout cela est très troublant, quand on sait que notre univers, aussi grand soit-il, ne contient jamais qu’un nombre fini de particules ! Cette finitude fait que les processus qui s’y produisent, n’employant qu’un nombre fini de ressources, sont en réalité des processus discrets dont les calculs « continuistes » des physiciens ne font que donner des approximations. Ce qui est étonnant, c’est qu’alors que nous avons tous appris à l’école que le réel était continu et que les fonctions discrètes ne pouvaient en donner qu’une approximation, c’est maintenant l’inverse qui semble être vrai !

Des idées commencent donc à apparaître, comme celle qui voudrait que l’univers soit un grand ordinateur…

ock_port.1208675125.jpgalonzo_church.1208675217.jpg
Guillaume d’Ockham Alonzo Church

Dans ce contexte, l’étude des processus calculatoires devient un enjeu majeur de la science. Et c’est ce qui a commencé à vrai dire relativement tôt dans l’histoire de la logique, c’est-à-dire avant que les ordinateurs concrets n’existent, avec notamment les travaux de A. Church sur le lambda calcul. Pour le dire brièvement, le lambda calcul est un calcul qui permet la construction, l’application et la composition de fonctions. Si on pense que tout programme est une fonction (qui associe une « sortie » à un certain nombre « d’entrées »), on conçoit aisément qu’un tel calcul porte en germe tout ce qu’il est possible de programmer. De fait, le lambda-calcul, à côté des machines de Turing (une autre histoire) fournit un authentique modèle de calcul universel. Mais si l’on veut que ce calcul « ne fasse pas n’importe quoi » (si on veut écrire des programmes qui ne « buggent » pas), il faut prendre des précautions, ce qui s’appelle « typer » les programmes (ou les lambda termes). Par exemple si vous écrivez un programme pour faire une addition de nombres entiers, il faudra spécifier au départ que vous voulez construire une fonction qui, à la donnée de deux entiers, va bien vous associer un entier, autrement dit un objet de « type » N à (N à N), et bien sûr, votre fonction ne pourra s’appliquer qu’à des entiers, sinon bug. Mais en typant les programmes et en introduisant une discipline des types, on s’est aperçu… qu’on ne faisait que reproduire une logique très élémentaire, qui ne contient même pas toute la logique « classique » (celle d’Aristote ou des médiévaux avant d’être celle de Frege et de Russell), mais une logique en revanche qui convient parfaitement bien à la démarche des « intuitionnistes » (ces mathématiciens, majoritairement néerlandais, qui refusaient que l’on use du principe du tiers exclu dans les démonstrations – parce que ce principe nous permet d’avoir parfois des résultats d’une manière un peu trop facile… je reviendrai sur ce point un autre jour). Ainsi est apparu un lien fondamental, une première fois, entre le calcul et la logique. Ainsi a-t-on une première fois revalorisé les travaux de logiciens qui, sans cela, auraient fini au rayon le plus poussiéreux de l’histoire des idées…

(A SUIVRE)

Cet article a été publié dans Philosophie, Science. Ajoutez ce permalien à vos favoris.

Un commentaire pour A quoi peut bien servir la logique ? – 1 – L’importance du calcul

  1. jmph dit :

    Si je comprends bien (mais il est tard…), l’addition de deux nombres entiers ne donne pas forcément un autre nombre entier ? Ce serait une logique trop élémentaire ?
    Cela me rappelle les temps anciens où on faisait de la programmation en basic sur des petits ordinateurs de poche « Sharp », balbutiements de l’informatique personnelle : la moindre faille de raisonnement (de logique?) aboutissait inévitablement à un « bug ». Je trouvais ça fascinant …
    Bon, j’attends la suite, entre deux Mélanchonneries …

    J'aime

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s