Jean-Gabriel Ganascia : Réflexions sur l'IA et ses vérités cachées
Extrait de l'interview pour le livre 'L'IA au service du marketing'
En achetant le livre 'L'IA au service du marketing', vous aurez accès à des ressources complémentaires, dont l'interview complète de Jean-Gabriel Ganascia. Voici un extrait pour vous donner un avant-goût.
Jean-Gabriel Ganascia - Informaticien, philosophe, professeur à la Sorbonne et à l’Université Pierre et Marie Curie, président du comité d’éthique du CNRS, membre de l’Institut universitaire de France. Auteur de plusieurs livres, dont Ce matin maman a été téléchargée publié en 2019 sous le nom de plume Gabriel Naëj, aux Éditions Buchet Chastel.
C’est quoi les intelligences artificielles ?
Jean-Gabriel : Il est important de clarifier qu'il n'y a pas plusieurs 'intelligences artificielles' mais plutôt une discipline scientifique nommée 'intelligence artificielle'. Cette discipline, née en 1956 et initiée par un groupe de mathématiciens, se concentre sur l'utilisation des ordinateurs pour simuler les facultés cognitives humaines, telles que la perception, le raisonnement, la mémoire et la communication. Contrairement à ce que le terme pourrait suggérer, l'intelligence artificielle ne se rapporte pas à la création d'un esprit artificiel, mais plutôt à une meilleure compréhension de l'intelligence en la décomposant et en simulant ses différentes composantes.
Ces simulations, une fois réalisées, sont ensuite intégrées dans diverses technologies, offrant d'innombrables services utiles. C'est là qu'intervient la notion d'agent, une entité qui agit en interprétant des informations externes pour prendre des décisions et exécuter des actions. Ce que le grand public appelle communément 'intelligence artificielle' renvoie souvent à ces agents, mais là, dans cet emploi usuel, le terme n'est pas tout à fait approprié. Techniquement, il serait plus exact de parler d'agents, éventuellement qualifiés d'intelligents.
L'idée qu'une machine puisse raisonner remonte très loin, bien avant la naissance de l'IA. Au 17ème siècle, Blaise Pascal, avec sa pascaline, avait déjà reconnu que les machines pouvaient imiter certains aspects de la pensée. Leibniz a également contribué à cette réflexion, cherchant d’abord à arithmétiser la logique, c’est-à-dire les lois de la pensée juste, puis à créer une machine capable de simuler la pensée. Cette idée s'est développée au fil des siècles, aboutissant à des inventions comme les premiers réseaux de neurones formels en 1943.
La cybernétique, une discipline née à la fin de la Seconde Guerre mondiale, s'est intéressée à la régulation et au contrôle, préparant le terrain pour l'émergence de l'intelligence artificielle en tant que discipline scientifique distincte en 1956. Depuis lors, l'IA a continué à évoluer, avec des techniques comme les réseaux de neurones et l'apprentissage profond, qui restent d'actualité aujourd'hui.
Il est impératif de dissiper les malentendus. Par exemple, parler d'intelligences artificielles au pluriel dans le contexte de l'IA est incorrect. Lorsque Luc Julia, le concepteur de Siri, affirme que 'l'intelligence artificielle n'existe pas', il souligne qu'il n'y a pas d'esprit dans les machines, seulement des modélisations. L'IA est une discipline scientifique, mais il n'y a pas d'entité à proprement parler que l'on puisse qualifier d'intelligente. Cela n'a pas de sens, et ce n'est d'ailleurs pas le but poursuivi par l'IA.
Est-il envisageable de penser qu’une machine puisse penser ?
Jean-Gabriel : Dire qu'une machine comme ChatGPT est intelligente n'a aucun sens. Et d'ailleurs, ChatGPT raconte énormément de bêtises. Indépendamment de ça, il n'est pas conçu pour 'penser' au sens humain du terme. Sa spécialité réside dans le langage naturel, dans l’expression verbale et le dialogue. Est-ce que cela le rend intelligent ? Pas vraiment. Nous connaissons des personnes très bavardes qui ne sont pas nécessairement intelligentes. C'est comme un perroquet qui répète ce qu'il entend ; cela ne signifie pas qu'il est stupide, mais ce qu'il répète n'est pas 'intelligent'. Quand on parle de ce que signifie penser pour une machine, il faut se tourner vers Alan Turing, un mathématicien central dans ce domaine. Il a établi en 1936 les fondements théoriques de l'informatique avec les machines de Turing. Le premier ordinateur électronique programmable est apparu en 1946. Turing s'est alors demandé si ces nouvelles machines pouvaient penser.
Il a exploré cette idée avec différentes « épreuves », par exemple la traduction, les jeux, la cryptographie. Celui qui est décrit dans son artificielle de 1950, et que l’on a appelé depuis le test de Turing, évalue si une machine peut imiter un être humain dans une conversation. Le scénario est le suivant : un interrogateur communique par messages textuels avec un homme et une femme. Dans un premier temps, l’homme imite la femme et l’interrogateur doit deviner qui est l’homme, qui est la femme, en examinant les réponses à ses questions.
Puis, subrepticement, à l’insu de l’interrogateur, un ordinateur remplace remplace l'homme qui imite la femme. Si l'interrogateur ne s’aperçoit pas du subterfuge, pourrait-on dire que l’ordinateur pense ? Turing précise que cela ne releve pas de la conscience, mais de l'imitation du comportement humain. Il avait prédit (nous étions en 1950) que, d’ici cinquante ans, les machines pourraient réussir ce test sur une durée de cinq minutes dans plus de 30% des cas, ce qui s'est avéré presque vrai en 2000.
Pourriez-vous nous en dire plus sur le test de Turing ?
Jean-Gabriel : Alan Turing a conçu le test de Turing non pas comme un critère absolu d'indiscernabilité, mais plutôt comme une mesure empirique de l'imitation. L'idée clé est de faire illusion, de tromper l'interrogateur pendant un certain temps. Turing n'a jamais prétendu que la machine devait être indiscernable de l'humain. C'est une approche modeste de l'intelligence artificielle.
Turing répondait ainsi aux objections courantes à l'idée qu'une machine puisse penser. Par exemple, face à l'affirmation qu'une machine n'a pas de conscience, il argumentait que l'absence de conscience n'était pas un obstacle. Nous ne pouvons pas vérifier la conscience de la personne qui se trouve en face de nous ; cela ne nous empêche pas d'interagir avec elle. Turing a donc cherché à évaluer la capacité des machines à imiter le comportement humain, plutôt que de suggérer qu'elles étaient des doubles de nous-mêmes.
L'IA évolue de façon surprenante, même si les réalisations actuelles s’inscrivent dans la droite ligne de ce qu'indiquait Turing. Des technologies telles que ChatGPT ont dépassé les attentes initiales en termes d'interaction avec les utilisateurs.
En novembre 2022, ChatGPT a été révélé au monde. Est-ce une révolution ou simplement une évolution ?
Jean-Gabriel : ChatGPT a marqué les esprits dans le grand public en rendant visibles les progrès récents en matière d'intelligence artificielle. La capacité de ce programme à générer des textes cohérents et bien formulés est impressionnante, souvent supérieure à celle de nombre d’étudiants. Cependant, il faut rester vigilant quant à la pertinence et la véracité des informations produites par ces modèles.
À mon avis, ChatGPT représente une évolution significative plutôt qu'une révolution. Cette évolution rapide est le fruit de plusieurs années de recherche et de développement dans le domaine des réseaux de neurones formels, notamment avec l'introduction de modèles de type Transformer.
L'histoire de Blake Lemoine, cet ingénieur logiciel de Google, avec le robot LaMDA lancé en 2021 chez Google illustre la fascination et les inquiétudes que suscitent ces avancées. Lemoine, renvoyé pour avoir attribué une âme à LaMDA, montre bien les excès que suscite l’IA aujourd’hui.
La société OpenAI n'avait pas les mêmes enjeux que Google lorsqu’elle a lancé ChatGPT en novembre 2022. Son objectif n'était pas tant la véracité, à laquelle Google est attachée car son métier est de donner des informations tangibles, que la création d’un outil interactif et ludique. Les ingénieurs d’OpenAI se sont donc concentrés sur l'évitement de contenus inappropriés, tels les propos racistes ou sexistes, en utilisant un système de modération. À cette fin, ils ont eu recours à une très ancienne technique d’IA, l’apprentissage par renforcement, entraînée à partir de l’observation du comportements de modérateurs humains. Ce choix stratégique judicieux a permis à ChatGPT de gagner rapidement en popularité sans que les controverses potentielles liées aux contenus problématiques ne jette d’ombre sur ce logiciel.
Bref, ChatGPT et d'autres agents conversationnels similaires fondés sur des grands modèles de langage, marquent une étape importante dans l'évolution de l'IA, mais ils ne constituent pas une rupture fondamentale. Ils illustrent plutôt la rapidité et l'efficacité avec lesquelles l'IA peut désormais interagir dans notre quotidien.
Vous faîtes également l’analogie avec les ‘gnostiques’ dans votre livre ?
Jean-Gabriel : J'établis un parallèle entre les courants gnostiques et certaines idées contemporaines sur la technologie et l'intelligence artificielle. Les gnoses sont des mouvements spirituels qui ont pris leur essor dans les premiers siècles après Jésus-Christ. Selon ses représentants, le monde aurait été mal créé, par un faux Dieu qui aurait fait beaucoup d’erreurs dans ses fabrications. Pour eux, la connaissance — rappelons que « gnose » vient de cognoscere, « connaître » en latin — permettrait de réparer ce monde défectueux.
Cette conception gnostique trouve un écho dans les pensées de certains acteurs du monde de la technologie aujourd'hui, qui estiment que les avancées technologiques pourraient corriger les imperfections du monde et nous conduire à un état supérieur. Par exemple, la perspective de télécharger la conscience humaine dans des machines, promue par des penseurs comme Ray Kurzweil, reflète une volonté de dépassement de nos limites corporelles analogue à la quête gnostique de réparation et de salut.
Eric Voegelin, un philosophe du XXème siècle, a étudié le gnosticisme et a observé une réactivation de ces idées dans la pensée moderne. Selon lui, les visions technologiques actuelles, en particulier celles liées à l'intelligence artificielle, semblent reprendre cette ancienne aspiration à transcender les limitations humaines et à corriger les 'erreurs' du monde naturel. C'est une analogie que j'ai trouvée pertinente pour comprendre certaines des aspirations et des inquiétudes qui entourent aujourd'hui le développement de la technologie et de l'IA.