L’IA, et après?

Je marque une pause dans mon voyage en Egypte. Le voyage est un moment toujours merveilleux, mais il n’empêche pas que le monde bouge à côté, ou plutôt que le temps n’en finisse pas d’accélérer.

IA omniprésente. Combien d’articles et de débats déjà consacrés à cet objet ? Comment en parler de manière neuve relativement à tout ce qui s’est déjà dit ? Un débat à l’émission C ce soir m’a intéressé il y a peu de temps. S’y trouvaient réunis les philosophes Eric Sadin, Apolline Guillot et Anne Alombert, le paléoanthropologue Pascal Picq, une entrepreneuse du domaine Marion Carré et un journaliste de BFM. C’était à l’occasion du troisième anniversaire du surgissement de Chat GPT dans notre quotidien. 800 millions de personnes l’utiliseraient aujourd’hui.

Il est fascinant de voir s’organiser les termes d’un débat télévisuel : il y a les critiques acharnés, ceux qui se montrent à contre-courant et prêts à tout pour entraver la marche de l’innovation que constitue (par exemple) l’IA, il y a au contraire ceux qui sont dans le courant, acceptent de reconnaître sur une base « humaniste » qu’il y a quelques inconvénients à ce soi-disant « progrès », mais qui pensent sincèrement que l’on peut encore « légiférer », limiter les dégâts, orienter la machine seulement vers les usages bénéfiques à l’humanité etc. Les pour et les contre, comme pour faire un « bon débat », mais qui sont tous d’accord quand même sur le fait qu’il y a un courant, même si certains s’y opposent, et que cela est, hélas, indiscutable. Tout comme il y a indiscutablement un réchauffement de la planète. Tout comme il y a indiscutablement une disparition de certaines espèces. Ceux qui s’opposent pensent que cela nous tombe dessus sans avoir prévenu, que c’est une sorte de tendance innée à l’humain de toujours vouloir faire plus, mieux, plus vite, plus efficacement, que c’est bien allé dans le passé, mais que maintenant, bon, ça va, c’est devenu trop, il va falloir faire quelque chose. L’anthropologue reconnaît volontiers le risque, la situation inédite : pour la première fois dans l’histoire, une technologie se répand à grande vitesse, sans, évidemment, que les gens n’aient été préparés à l’utiliser, il en résulte selon lui une grave atteinte au « cerveau social », autrement dit à tout ce qui se développe à partir du dialogue et de l’interaction entre humains et entre espèces vivantes (serais-je tenté d’ajouter).

Que cela n’ait pas été prévu… à voir, on parle de l’IA depuis au moins soixante-dix ans, autrement dit dès que l’informatique a commencé à germer dans quelques esprits. Ce pauvre Alan Turing, lui-même, y pensait déjà. On connaît son fameux test : une machine pourrait être dite intelligente le jour où on ne saurait plus distinguer ses réponses à des questions de celles fourniés par un humain oridinaire. Encore fallait-il définir l’humain ordinaire. Mais on y est, là, en ce moment, à ce qui semble, avec Chat GPT. Même pas nécessaire de définir l’humain ordinaire. C’est tout humain. Oui, tout humain se sent dépassé par les réponses fournies. Il paraît même que des mathématiciens ont été bluffés par les démonstrations fournies par la dernière version de Chat GPT pour des théorèmes très compliqués dont certaines preuves se faisaient au moyen de l’axiome de choix, ils ont alors demandé une preuve sans l’axiome de choix… ils l’ont obtenue. L’un d’eux disait qu’il fallait trouver la bonne hypothèse de récurrence, en général le mathématicien ordinaire ne la trouve pas, la machine, elle, oui. Elle la trouve. Si c’est un match, l’IA gagne 5-0. Mais pour en revenir à ce qui vient d’être dit : oui, c’était prévu, attendu, préparé. Dès 1956, Newell et Simon avaient conçu un General Problem Solver qui était capable – prétendaient-ils – de découvrir tout seul la loi de Kepler (ils se vantaient bien sûr, ils avaient mâché le travail à la machine, mais quand même). Par la suite, les recherches ont longtemps piétiné. Les malins vous diront que c’était parce que les chercheurs s’entêtaient à travailler sur des modèles symboliques. L’exemple le plus clair étant la manière de vouloir résoudre les questions de traduction automatique au moyen de grammaires et de lexiques où les règles et les entrées lexicales étaient représentées par des symboles, on pensait alors que l’intelligence artificielle ne pouvait fonctionner qu’en simulant le fonctionnement de nos propres capacités cognitives, lesquelles devaient s’exprimer sous forme de théories logiques (il y a peu de différences entre une grammaire de Chomsky et un système formel permettant d’axiomatiser une théorie logique). Cela a changé avec l’apparition des premiers modèles connexionnistes, façon de prendre pour unités de formalisation non pas les signes supposés présents dans nos cerveaux, mais les neurones dont les activations pouvaient être à l’origine de ces signes. Les chercheurs se trompaient à deux niveaux : d’une part, il n’était pas nécessaire de vouloir à tout prix simuler nos fonctionnements cérébraux, et d’autre part, même si on voulait au moins en partie s’en inspirer, il ne fallait pas en rester aux signes organisés en systèmes comme dans des théories logiques, il fallait descendre en termes d’échelle et tenter de formaliser les neurones. Ce que ne permettaient guère de réaliser les machines de l’époque mais que très vite ont pu faire les machines suivantes, ayant acquis d’énormes gains de puissance calculatoire grâce à l’évolution des processeurs.

L’IA n’est donc pas tombée de la dernière pluie. Et si nous élargissons un peu le champ de notre interrogation, on verra vite qu’elle fait partie des processus d’automatisation qui se sont mis en place depuis bien longtemps. Depuis quand, au fait ? Euh, oui, c’est ça, depuis l’aube du capitalisme.

Alors Apolline Guillot a beau jeu de répondre à Eric Sadin qu’il réagit bien tard et que nous aurions pu déjà nous manifester quand de nombreuses tâches manuelles ont été remplacées par la machine. Les débuts du chômage de masse coïncident avec la robotisation intense dans les usines automobiles. Alors lui dit-elle : cela ne vous gêne que lorsqu’on touche aux travaux intellectuels, mais pas quand on touche aux manuels ? L’attaque est perfide. Evidemment qu’on aurait pu réagir avant, mais n’y a-t-il pas eu dans le passé des réactions justement face aux machines ? Les luddites par exemple, ont fait parler d’eux.

1811: les luddites se rebellent contre les machines

Et puis, quand on s’en est pris aux tâches manuelles, plein de bons esprits ont prétendu que c’était un bien, puisqu’on supprimait ainsi des tâches harassantes et fastidieuses. Après tout, tout cela ne faisait que suivre la trajectoire entamée depuis l’apparition de la monnaie : celle-ci permit la divison du travail, grâce à l’échange marchand, des membres de la société purent être débarrassés de tâches ingrates (comme produire leur propre nourriture) pour se livrer à la pensée abstraite, à la poésie ou à la musique. Quoi de plus naturel ensuite que chercher à en débarrasser tous les humains ? Cela se tenait… un peu. Un peu seulement car c’était quand même mépriser le travail manuel.

Avec ce qui se passe aujourd’hui, on tombe bien sûr dans un autre « paradigme », si on va jusqu’à supprimer les tâches intellectuelles, que reste-t-il à l’humain ? Si jusqu’ici il pouvait se réfugier dans la pensée qui était jugée comme une tache noble, si on lui supprime la pensée, il n’y a plus de tâche « super-noble » à accomplir…

Evidemment, toutes les justifications surgissent : progrès dans les connaissances (une IA serait capable de prévenir toute forme de cancer bien avant le meilleur oncologue, une IA peut dépouiller une masse de données en quelques millièmes de secondes etc.), substitution à l’humain pour accomplir des tâches jugées fastidieuses (composer un PowerPoint, disait le journaliste de BFM – tu parles ! Moi, j’ai toujours aimé faire des PowerPoint !), bref : gain en efficacité et en rentabilité. Mais c’est justement ce qui a été de tout temps recherché : le progrès technologique vise principalement à accroître la productivité, et avec l’IA, on franchit d’un seul coup un bond immense. Or l’augmentation de la productivité ne saurait être un but pour l’humanité. Je renvoie ici au livre de Moishe Postone, La société comme moulin de discipline. En principe l’augmentation de productivité devrait servir à alléger la tâche des travailleurs, mais dès qu’elle se produit, au lieu de créer cet allègement, on a toujours vu qu’elle suscitait une extension de la production, ramenant le travailleur à sa situation initiale, et ainsi de suite sans limite. Alors à quoi bon ? A un certain moment de cette course en avant, nous en arrivons à connaître une situation absurde. On pourrait croire qu’alors, tout va s’arrêter : nous ne sommes pas si cons. Eh bien, non, ça ne s’arrête pas, bien au contraire, on fonce, comme l’explique si bien Asma Mhalla, dans l’accélérationnisme, vers la « monarchie des cinglés ».

Ce qu’on comprend mal dans cette histoire, c’est qu’à un certain moment, il faut bien que tout cela rapporte, n’est-ce pas, puisque nous sommes dans le capitalisme, or, si tout le travail est devenu travail mort, comme disait Marx, il n’y a plus rien qui puisse créer de la valeur. On passe sans doute à une autre échelle. Un au-delà du capitalisme ? Ou bien au contraire un « hypercapitalisme » se nourrissant du fait que désormais, une survaleur apparaît au stade de la noosphère, puisque ce seraient les idées elles-mêmes (nous n’en sommes, pour l’instant, qu’au stade des informations et des données) qui s’échangeraient avec des plus values. Mais quelles « idées » ? Quelles « idées » peuvent produire ces machines par l’intermédiaire desquels les accumulateurs de capital nous gouvernent ? Et comment peuvent-elles recéler de la valeur afin de continuer à faire exister le capitalisme ? C’est bien sûr une question ardue. On peut prendre le problème par le biais de la publicité par exemple, ici l’image (= l’idée, car on peut douter fort que le texte continue à être valorisé) s’impose comme valeur en tant que faisant vendre un produit, une marque. Mais aussi un système politique, une personnalité désignée pour gouverner, toutes choses rendues nécessaires par l’état d’extrême tension dans lequel se trouve le capitalisme moderne, dans lequel la « force de travail » continue d’exister mais de manière diffuse, abstraite, encore plus abstraite que dans le capitalisme classique, au point même qu’elle devient insaisissable, et corrélativement, la valeur se fait toujours plus rare, devient plus difficile à extraire, ce qui provoque des conflits, des guerres, on en est là aujourd’hui, les nations se préparent à la guerre mais qui sait si demain les firmes qui se substituent peu à peu à elles ne se feront pas elles-mêmes la guerre ?). Evidemment, ces « idées » que produirait l’IA n’auraient rien qui se rapporte à la réalité. Là aussi, il ne faudra pas dire qu’on n’a pas été prévenu, depuis le temps que du travail est fait pour déconnecter les images par rapport au réel. Nous sommes arrivés dans l’univers des fake-news et de la réalité alternative : tout doit être fait pour découpler images et propos par rapport à la réalité, la notion de vérité est combattue (« les professeurs, voilà l’ennemi », disent Musk et Trump). L’image construite par l’IA sera le moyen par lequel la réalité pourra finir par être occultée : des gens mourront de chaud, de soif, mais on ne le saura pas, car des images leur seront substituées dans lesquelles ils continueront à sourire.

Que faire ?

Une psychanalyste que j’aime beaucoup pour sa sagacité et dont la grande presse ne parle pas, Sandrine Aumercier, dit, sur le blog Palim Psao en parlant du devenir des traducteurs (elle les appelle les « biotraducteurs » par rapport aux machines, et elle oppose donc le biotravail au travail automatisé tout en faisant remarquer que cette distinction recouvre exactement celle que Marx faisait entre « travail vivant » et « travail mort ») : « Le refus de choisir dans tous les domaines où l’abstention pouvait être encore exercée était la seule façon d’exprimer le rejet des faux choix préfabriqués par les conditions du Capital. Ce refus ne pouvait être qu’impur et limité par l’obligation de chacun à survivre dans les conditions données. Mais dans une perspective émancipatrice, ce refus n’était pas négociable dans son principe. S’ils avaient poursuivi un horizon émancipateur, les biotraducteurs auraient fait savoir en masse qu’ils ne traduiraient plus et qu’ils ne consentiraient jamais à cette prolétarisation ontologique ». C’est en somme une attitude du genre « I would prefer not to… » associée au célèbre Bartleby de Melville, qui nous semble en effet la seule tenable aujourd’hui… pour l’instant.

Pour ma part, je n’ai jamais utilisé Chat GPT, ni aucune forme d’IA quelle qu’elle fût. Il me suffit de savoir comment « ça » fonctionne. Et si je ne l’utilise pas, ce n’est pas par opposition stérile ni par un quelconque militantisme contre. J’argumenterai seulement pour dire… que je n’en ai pas besoin, non parce que je serais bien suffisamment intelligent (!) mais simplement parce que ce qui ne sort pas de mon intelligence personnelle, si faible soit-elle, ne m’intéresse pas. J’essaie de penser et ce faisant, je me regarde penser, je trouve cela beaucoup plus intéressant que m’en remettre à une machine. Je me trouve ainsi appliquer, sans forcément l’avoir recherché, le précepte de Spinoza selon lequel le vrai bonheur se situe du côté de la connaissance telle qu’on la vit (et non comme savoir extérieur). L’IA, c’est un peu, comme le disait d’ailleurs une autrice quelque part dans un journal que j’ai lu récemment, comme un sportif de haut niveau qui s’en remettrait à un robot pour sauter à sa place.

Bref, pour quoi faire ?

Cet article, publié dans Philosophie, est tagué , , , , . Ajoutez ce permalien à vos favoris.

1 Response to L’IA, et après?

  1. Avatar de Girard A Girard A dit :

    « Le progrès technique est comme une hache qu’on aurait mis dans les mains d’un psychopathe ». -Einstein.

    C’est vrai que cela va très vite et que même les grosses pointures des sciences (Cédric Villani) ont été a priori surpris par le phénomène.

    Hervé Le Tellier a été bluffé par un exercice de poésie ou il a été confronté à l’IA.

    En tous cas ton billet fait froid dans le dos tant la course est vertigineuse et les issues de sorties pour respirer paraissent de minuscules trous de souris : les livres de science fiction d’hier sont d’actualité. A relire 1984.

    Vivement des leaders intellectuels, politiques, artistes qui nous redonnent le gout du vivant et du fortifiant.

    J’aime

Laisser un commentaire