Encore l’I.A

science et philosophie : le débat

Raison. À l’occasion de la sortie de son essai L’Esprit artificiel. Une machine ne sera jamais philosophe (Éditions de l’Observatoire), Raphaël Enthoven s’entretient ave l’entrepreneur en IA Alexandre Cadain.

EXTRAIT DU POINT. Propos recueillis par Guillaume Grallet et Héloïse Pons 

Deux visions du monde. Alexandre Cadain (à g.) et Raphaël Enthoven, le 11 janvier, dans les locaux du « Point », à Paris. 

La machine peut-elle être philosophe ? Non, pour Raphaël Enthoven, qui, après avoir battu ChatGPT à l’épreuve du bac de philosophie en juin 2023, explique ici que le doute, l’expérience et la capacité de créer des problématiques sont le propre de l’homme. L’écrivain dialogue ici avec Alexandre Cadain, un entrepreneur à l’origine de World Game et d’Alias Studio, une plateforme d’IA générative intégrant les droits d’auteur. Diplômé d’HEC Paris, celui qui signera en mars l’essai Homo ludens aux Éditions de l’Observatoire a animé un groupe de travail à l’École normale supérieure (ENS) de la rue d’Ulm, dont il est un ancien élève, qui l’a fait changer d’avis sur la capacité des machines à imaginer. 

Le Point : Comment définissez-vous l’intelligence ? 

Raphaël Enthoven : L’intelligence est une faculté ambivalente, qui nous sépare du monde par les moyens qu’elle nous donne de le connaître. Nous sommes paradoxalement mis à distance du réel par les outils que l’intelligence nous donne, à la façon dont on perd de vue le phénomène qu’on se satisfait d’expliquer. C’est une capacité de tri et d’analyse, qui ne saisit du monde que son squelette et qui dissipe les mystères de ce qui existe, sans dissiper l’énigme de sa présence. Par l’intelligence, nous mettons le monde à notre portée. Mais à cause d’elle, nous vivons à bonne distance de lui. Comme dit Merleau-Ponty : « La science manipule les choses et renonce à les habiter. » 

Alexandre Cadain : L’intelligence est cette capacité à tisser des liens pour comprendre le monde et apprendre de lui. Dans une lecture fonctionnelle, c’est un processus qui permet aux humains de transformer un chaos d’informations en connaissances actionnables et les aide ainsi à prendre de meilleures décisions dans leur environnement complexe, pour y vivre et d’abord y survivre. C’est sous ce prisme que je regarde l’intelligence artificielle. Comme un outil qui automatise une partie de ce processus non pas pour nous remplacer, mais pour nous permettre, comme le formule le fondateur de DeepMind Demis Hassabis, d’acquérir des connaissances qui nous étaient jusque-là inaccessibles. 

Alexandre Cadain, vous pensiez l’IA incapable de créativité, et vous avez changé d’avis. Pourquoi ? 

Alexandre Cadain : En 2016, à l’ENS Ulm, nous avons initié un séminaire de recherche avec l’historienne Béatrice Joyeux-Prunel pour interroger, à la croisée des arts et des sciences, les imaginaires qui structuraient le développement de l’intelligence artificielle. Rapidement, nous nous sommes retrouvés bloqués face à des imaginaires sombres à la Terminator, où la machine nous dépasserait pour nous remplacer et bientôt nous exterminer… Derrière cette fiction obsédante, je ne trouvais que le mythe de la « singularité technologique », selon lequel la croissance exponentielle de l’IA dépassera rapidement le développement linéaire de l’humain et de toutes ses capacités, au point que ce dernier ne sera même plus capable d’observer ni de comprendre cet emballement technologique. Dans les années 2000, le « prophète » techno Ray Kurzweil a voulu faire de cette fiction une science ; il ose même dater le moment de la singularité en 2045 ! Dans son livre The Singularity is Near, sa « preuve » réside principalement dans la loi empirique de Moore, qui observe la seule explosion de la puissance de calcul. De mon point de vue, cela ne suffisait pas. Pour chercher les limites de la comparaison humain-machine, je me suis intéressé à ce que l’on a appelé l’« imagination artificielle » : et si les machines étaient capables de produire des images vraiment nouvelles ? J’espérais secrètement que non. (Sourire.) D’autant que, fils d’artiste, j’étais encore attaché à l’idée pure d’une création humaine dans le champ artistique. Mais je me suis trompé. Depuis 2014, des réseaux dits « adversariaux » permettent à la machine de se corriger elle-même pour produire des images nouvelles, en s’inspirant parfois d’images existantes mais sans jamais les reproduire. Comme nous, en réalité. Car ce processus ressemble cruellement au fonctionnement de l’imagination humaine : nous composons aussi avec le réel, avec des données passées, rêvées, projetées. Évidemment, ce n’était pas pour autant la preuve de la singularité à venir, et encore moins de la conscience des machines, mais je mesurai soudainement que peu, sinon aucune, de nos activités seraient imperméables à la machine… 

Alexandre Cadain : « Un autre monde est possible entre l’homme et la machine. La coopération au lieu de la compétition. » 

Selon le chercheur Yann Le Cun, l’intelligence artificielle nous conduit vers une nouvelle période des Lumières… 

Raphaël Enthoven : Tout en rappelant que la machine est à des années-lumière d’atteindre les capacités humaines ! Ce qui est certain, c’est que l’IA bouleverse tous nos champs de compétence, du droit à l’astronomie en passant (peut-être) par l’écriture de scénarios ou de romans. Il n’est pas impossible qu’un romancier ou un scénariste soit surpassé dans la confection d’histoires formatées, puisqu’il suffit en somme de fournir aux machines un patron, des schèmes récurrents qui lui permettent de produire la même chose que nous plus rapidement. En revanche, les potentialités ouvertes par l’IA n’augmentent en aucune manière la capacité à concevoir un problème à partir d’une question posée. Or c’est le cœur de l’exercice philosophique : la conquête de cet atome de pensée qu’on appelle une « problématique » et dont dépend la dissertation. Il faut bien comprendre que la philosophie n’a pas pour objet de transmettre un savoir, mais une méthode, un apprentissage où se mêlent les conseils d’un professeur et les expériences personnelles, qu’aucune compilation de données, si vaste soit-elle, n’est en mesure de reproduire. Et c’est ça qui m’intéresse : ce je-ne-sais-quoi résiduel, dérisoire à côté d’un océan de données, qui fait l’humanité de l’humain et qu’aucune intelligence artificielle n’effleure. Qui plus est, en philosophie, l’enjeu n’est pas de répondre aux questions qu’on pose, mais de questionner les questions elles-mêmes. Plutôt que de savoir si (ou quand) nous fabriquerons un jour de toutes pièces un être conscient, la question que je me pose est d’où nous vient cette étrange certitude. D’où vient le rêve, antique comme le mythe de Pygmalion, de donner le jour à une IA consciente ? Il y a plusieurs réponses, mais celle qui me paraît évidente, c’est qu’on aime se prendre pour Dieu, se donner le rôle de l’être dont les créations sont des créatures qui finissent par lui tourner le dos. Il y a plus d’orgueil que de craintes dans l’idée de voir apparaître des IA conscientes. 

Un article de recherche publié l’été dernier explique qu’à partir du moment où la machine aura un lien avec l’extérieur, c’est-à-dire une certaine sensibilité, rien ne lui interdira d’avoir un jour une conscience… 

Raphaël Enthoven : Il y a, de mémoire, une scène dans Terminator 2 où John Connor s’inquiète de voir des balles partout dans le corps du Terminator. Il lui demande si ça ne lui fait pas mal, et le Terminator répond : « La douleur n’est qu’une information. » Comme si la douleur n’était qu’une série d’équations à résoudre par la machine pour ne pas en souffrir. Comme si la douleur était soluble dans une connaissance absolue qui la réduirait à de l’information. 

Raphaël Enthoven : « Le but de l’IA est de reconnaître ce qu’elle n’a pas encore vu. En philosophie, c’est l’inverse. » 

Certains neuroscientifiques estiment qu’avec les progrès de l’imagerie cérébrale toutes les fonctions du cerveau seront un jour opérables par la machine… 

Raphaël Enthoven : Tout événement de l’existence peut, après coup, faire l’objet d’une mise en chiffres et en diagrammes. Chacune de nos décisions correspond à quantité d’événements chimiques dont on peut fournir le détail. Mais une chose est d’imiter ou de disséquer un moment, tout autre est de reproduire ce « jaillissement continu d’imprévisible nouveauté » (Bergson) en quoi consiste la vie. C’est tout l’intérêt de l’épisode de Black Mirror où un clone parfait, qui succède à un fiancé défunt, ne tarde pas à dégoûter la fiancée. Il a beau avoir les mêmes souvenirs, le même humour, le même grain de beauté, une incroyable énergie sexuelle, rien chez lui n’est spontané, tout sonne faux. Et sa présence, pour finir, augmente l’absence de l’absent. 

Alexandre Cadain : C’est aussi l’exemple de Replika, un chatbot à destination des ados. Une sorte de ChatGPT personnalisé ; depuis 2016, il se présente même comme votre « ami IA » et vous pose des questions pour mieux vous connaître. Il a été créé par une jeune femme russe, Eugenia Kuyda, qui avait perdu son meilleur ami dans un accident de voiture. Elle a téléchargé toutes ses conversations avec lui, textos, mails, etc. pour recréer son double, sa « réplique » afin de prolonger le plaisir de dialoguer avec lui. À tel point, dit-elle, que ce premier Replika l’aurait aidée dans son deuil. 

Raphaël Enthoven, êtes-vous certain que, lors d’un éventuel entretien dans trois ans, vous continuerez d’affirmer que la machine ne pourra jamais être philosophe ? 

Raphaël Enthoven : Même dans trois mille ans ! (Rires.) En vérité, l’IA et la philosophie ne prennent pas du tout la même direction : l’IA apprend par ingestion de données, dont l’assimilation lui permet de devancer ce qu’elle ne connaît pas encore. Pour le dire simplement : son but est de reconnaître ce qu’elle n’a pas encore vu. En philosophie, c’est l’inverse : on s’étonne de ce qu’on a l’habitude de voir. Autrement dit, l’IA conjure la nouveauté de ce qu’elle ne connaît pas encore ; la philosophie voit du nouveau au sein même de l’ordinaire et du familier. 

Alexandre Cadain : Dans Le Guide du voyageur galactique, l’écrivain britannique Douglas Adams imagine une machine qui trouverait le sens de la vie. Cette machine, Deep Thought – « pensée profonde » –, est censée intégrer toute la connaissance du monde. Des millions d’années plus tard, elle répond enfin : « 42 ». Ironiquement, c’est ce bug ou cette limite de la machine qui provoque le cheminement philosophique du protagoniste, qui cherchera la question qui correspond à cette étrange réponse… La réponse a recréé du doute et un dialogue pour se poser de meilleures questions. C’est en interagissant avec la machine que nous approchons de la vérité. Comme Garry Kasparov l’a aussi démontré, plutôt que de jouer contre la machine et de perdre, mieux vaut jouer avec elle pour se dépasser et améliorer le jeu. En 1997, le champion du monde se fait battre par la machine d’IBM, Deep Blue. Il invente ensuite les échecs avancés, les compétitions de « centaures » (humain + machine contre humain + machine). En 1998, il découvre que le gagnant n’est pas le meilleur joueur allié à la meilleure machine, mais l’équipe hybride dont les composantes communiquent le mieux. C’est aussi vrai aujourd’hui avec ChatGPT. 

Dans le coup d’État manqué chez OpenAI, on a vu de fins connaisseurs de l’IA s’inquiéter des progrès trop rapides de la recherche… 

Raphaël Enthoven : Le physicien américain Robert Oppenheimer [qui a participé à la conception de la première bombe atomique, NDLR] avait exactement les mêmes craintes. Même s’il estimait cette découverte inévitable : s’il avait passé son tour, quelqu’un d’autre l’aurait inventée. 

Alexandre Cadain : Il y a une attitude de pompier pyromane développée par des gens qui créent ce dont ils ont peur, peut-être parce que cela crée des marchés faciles ? (Sourire.) À moins que cette mise en scène de dangers futurs et peu probables ne leur permette de cacher les dangers réels et bien actuels de l’IA, des biais d’entraînement aux bulles cognitives en passant par les deepfakes ou le vol des droits d’auteur des IA génératives. 

Mais le danger est peut-être dans le fonctionnement opaque de l’intelligence artificielle… 

Alexandre Cadain : Parmi les risques qui existent déjà, le chercheur de Berkeley Stuart Russell a établi que, lorsqu’on pose une question à une machine, il y a une foule d’opérations intermédiaires que l’on ne contrôle pas. Si on créait une machine à qui on demanderait d’être plus heureux, elle pourrait au passage tuer notre chien parce qu’elle a repéré qu’on grimace quand il aboie, et qu’elle a gardé ce seul signal qui, pour notre « bonheur », pourrait aussi éradiquer l’humanité. Pour autant, d’excellentes équipes comme NukkAI, en France, travaillent sur l’explicabilité des modèles pour que l’humain derrière la machine soit en mesure de comprendre ses propositions.

Raphaël Enthoven : Je veux bien partager ce diagnostic d’une zombification progressive de l’humain. Il n’est pas impossible qu’on robotise la conscience et qu’on devienne nous-mêmes de purs mécanismes, mais ça ne veut pas dire qu’on est sur le point de créer des machines vivantes ! 

Alexandre Cadain : La fiction de la singularité a des impacts bien réels aujourd’hui dans le monde de l’innovation. Dans cet imaginaire à la Terminator, on crée chez Boston Dynamics des robots qui nous ressemblent, des androïdes, et ailleurs des applications miroirs qui flattent le désir de l’avatar, ou encore des traits d’union définitifs entre l’humain et la machine avec le « lacet neuronal » de Neuralink, qui veut connecter notre cerveau à la machine pour nous rendre hypermnésique. Dans tous ces exemples, il y a l’idée que la seule manière de survivre à la singularité, c’est de fusionner avec la machine. C’est l’ère du cyborg au lieu du centaure. Et c’est peut-être là que la prophétie de la singularité peut se réaliser, non pas parce que la machine serait devenue super-intelligente, mais parce que nous aurions abandonné la nôtre, avec ce forfait de notre imagination collective, en renonçant à penser un autre monde possible avec la machine : la coopération au lieu de la compétition et un meilleur jeu au lieu de la défaite annoncée. 

Raphaël Enthoven : Reste que l’univers du cyborg n’est pas le même que l’univers de l’autonomisation de la machine. La jonction entre l’humain et la machine ne s’appuie pas sur le même imaginaire que l’univers du basculement vers une machine consciente. Et d’ailleurs, dans les mondes où la machine devient consciente et prend le pouvoir, il y a assez peu d’humains cyborgs. Ce sont soit des humains ressources qui donnent de l’énergie, soit des humains qui se défendent comme tels. Quoi qu’il en soit, la machine peut faire beaucoup, mais elle n’est pas près de s’humaniser §

« L’Esprit artificiel. Une machine ne sera jamais philosophe », de Raphaël Enthoven, Éditions de l’Observatoire, 192 p., 19 €.SÉBASTIEN LEBAN POUR « LE POINT » (X3)

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.