Vivien Garcia
(Rivages, 2024, 120 p. 17€)
Vivien Garcia est philosophe, spécialiste des enjeux liés aux nouvelles technologies et des questions éthiques et politiques ; il enseigne à la faculté de médecine de l’université de Lorraine.
L’intelligence artificielle (IA) a actuellement le vent en poupe, suscitant les enthousiasmes les plus fous mais aussi les craintes les plus sombres. Sa mise sur le devant de la scène ravive de vieilles histoires de machines-esclaves ou d’entités suprahumaines se dressant contre leur créateur. Et pourtant, peu à peu, l’IA est en train de forger le monde qui advient, ce monde qui jusqu’à présent exerce sur nous une fascination.
La question «Que faire de l’intelligence artificielle ?» posée par ce livre a peu à peu émergé sans que l’on ait eu le temps de bien comprendre ce qu’elle incarne. Pourtant, l’IA ne date pas d’hier puisque, dès 1956, l’expression «intelligence artificielle» a été forgée au cours de la fameuse conférence du Dartmouth College, Alan Turing ayant déjà jeté les bases de la notion d’informatique dès le début des années cinquante, à partir du développement de la cybernétique dans les années quarante et cinquante.
Comme le propose l’auteur dans son introduction, «Ce livre entend combler une partie du fossé qui sépare la culture contemporaine de l’intelligence artificielle, en proposant une petite histoire qui refuse de faire l’impasse sur la dimension technique de celle-là. […] Elle éclaire son récit d’éléments philosophiques et critiques dont la technique, pour sa part, se tient trop souvent distante.» Il se penche sur les principales approches de l’IA et certaines des réalisations qu’elle a engendrées, refusant de s’en tenir au seul discours technique et faisant dialoguer ses concepts (algorithmes, réseaux de neurones, systèmes experts, modèles de fondation…) avec la philosophie.
Au cours de ses six premiers chapitres, ce livre décrit l’histoire de la naissance de l’IA à partir de celle de la cybernétique, et son évolution jusqu’à nos jours.
Ainsi successivement sont présentés :
- l’émergence des deux voies de l’IA, la voie connexionniste fondée sur les réseaux de neurones formels, qui a le vent en poupe depuis le tournant du XXIe siècle et qui triomphe aujourd’hui, et la voie de l’IA symbolique inspirée de la logique ;
- la description du cerveau et de l’esprit comme machines «car l’IA ambitionne de mettre au jour des machines capables de réaliser toutes sortes de tâches à première vue réservées aux êtres humains» ;
- l’intérêt de l’IA dans la perception, avec la naissance du «perceptron», première réalisation de l’IA présentant une capacité d’apprentissage, fleuron de l’IA connexionniste. Le perceptron a été mis au point en 1957 par Frank Rosenblatt au sein du laboratoire d’aéronautique de l’université Cornell, «dispositif visant à induire directement des concepts à partir de son environnement physique». Cette machine qui, pour l’époque, était d’une puissance rare, même si elle était capable de faire des erreurs, était alors constituée d’une seule couche de neurones artificiels ;
- mais quelles que soient ses qualités, un perceptron ne peut reconnaître n’importe quelle catégorie d’objet, et c’est l’IA symbolique qui va s’efforcer de devenir une intelligence générale artificielle «en cherchant des méthodes de résolutions de problèmes qui ne soient pas simplement algorithmiques, c’est-à-dire qui ne s’appliquent qu’à une seule classe de problèmes».
Au chapitre 7, V. Garcia élargit son propos en nous entraînant dans l’intervention de l’IA dans le monde des jeux, cadres limités et définis par des règles qui ne reposent pas sur le hasard, tel que les échecs, les dames ou le bridge, dont chaque partie de l’un de ces jeux permet d’établir une occasion de comparer le programme aux êtres humains. En effet, une partie est décomposable en une succession de coups et peut donc être comprise en un ensemble de transformations, de passages d’un état du jeu à un autre, à l’occasion desquels un choix doit être réalisé. Pour cela l’IA dispose de pistes, dont le fameux traité paru en 1944 de la Théorie des jeux et du comportement économique d’Oscar Morgenstern et du célèbre mathématicien et cybernéticien John von Neumann. A partir des mathématiques, l’approche adoptée dans cette théorie s’intéresse aux coups possibles des différents adversaires, et «les choix individuels à l’œuvre dans ces jeux seraient analogues à ceux que rencontrent les acteurs économiques en compétition pour maximiser leur utilité». Et l’IA est susceptible «de créer des programmes informatiques capables, dans le cadre délimité d’un jeu, d’appliquer une stratégie possiblement gagnante». Une telle méthode a pour but de trouver une solution la plus satisfaisante possible et «l’IA supposée en résulter n’est donc pas infaillible. Elle compte simplement faire aussi bien, et même mieux que les êtres humains».
Au chapitre 8, pour répondre à la question «Qu’est-ce que l’IA appelle penser ?», V. Garcia fait appel à Hannah Arendt et à son livre Du mensonge à la violence. Essais de politique contemporaine (1972) écrit en réaction aux Pentagon Papers, étude du département de la Défense des Etats-Unis portant sur leur rôle dans la guerre du Viêt Nam. Dans son essai, elle s’adonne à l’examen de ce qu’elle considère comme deux formes contemporaines du vieil art de mentir. Affirmant que la lecture de ces Pentagon Papers laisse parfois l’impression que l’Asie du Sud-Est a été prise en charge par un ordinateur plutôt que par des hommes responsables des décisions, elle s’élève avec virulence contre l’idée que «les hommes des think tanks sont des penseurs et que les ordinateurs peuvent penser».
Les chapitres 9 et 10 analysent comment l’IA a évolué, d’une part, en fonction des aléas de son financement par les militaires, les industriels et les universités, et d’autre part, en fonction des rapports de collaboration ou de compétition entre une intelligence générale artificielle et les systèmes experts, sur toile de fond d’un développement de l’informatique qui s’est répandue tant sur les lieux de travail que dans la vie familiale et personnelle.
A partir du perceptron de Rosenblatt constitué d’une seule couche de neurones formels, s’est développée une démarche permettant la construction de dispositifs beaucoup plus élaborés avec l’addition en parallèle d’autres couches de neurones formels composant une structure d’une grande complexité. Ce développement a été réalisé grâce à une transition permettant le passage du learning au deep learning, apprentissage profond par lequel la machine peut s’auto-enseigner grâce à la très grande quantité de données qui lui sont fournies et qu’elle peut stocker. Ainsi, avec la mise en place d’algorithmes de rétro-propagation permettant de rectifier des données issues d’une analyse de rang n, il devient possible de déterminer quelles modifications opérer pour corriger les données de rang n+1, permettant «une automatisation de l’entraînement selon un mécanisme qui n’est pas sans rappeler la rétroaction de la cybernétique». Cette mise en relation du deep learning avec les neurones cachés de l’IA est exposée dans le chapitre 11. On ne peut donc que constater que ce sur quoi reposent les bases de cette IA n’est constitué que sur le stockage d’un nombre considérable de données et sur leur utilisation pour un auto-apprentissage par le deep learning, autrement dit que cette IA est «plus artificielle qu’intelligente». V. Garcia résume ainsi ces progrès exponentiels comme étant le risque d’«un point de rupture irréversible qui remettrait en question les civilisations humaines».
C’est alors que l’IA a pu évoluer grâce à l’acquisition d’une quantité suffisante de données pour entraîner correctement un modèle, car une puissance de calcul importante, seule, n’est pas suffisante. Le problème de l’acquisition des données a donc émergé au premier plan, non seulement en quantité mais aussi en qualité : «les données ne sont jamais données, elles sont le fruit de différentes normes et médiations techniques, sociales et culturelles plus ou moins conscientes et affirmées». Et en calculant la différence de distribution des mots au sein d’une base de données, on peut, au sein d’un ensemble fourni à la machine, calculer leur fréquence et en tirer des prédictions. «Fondées sur ce principe, les méthodes de plongement lexical proposent d’entraîner un réseau de neurones à partir des textes qu’on lui fournit […] Le deep learning participe de l’arsenal d’une «gouvernementalité algorithmique», soit d’une modalité de gouvernement des conduites fondée sur l’anticipation et la gestion du risque». Cette importance relative aux données est soulignée dans les trois chapitres 12, 13 et 14, exposant en quoi les données ne sont pas données, en quoi la captation des données est au service de l’IA et en quoi elles permettent d’élaborer des prédictions.
De l’IA générative aux LLM (Large Language Models), la nouvelle vague de l’IA s’est développée, ce que nous montre le chapitre 15. Techniquement, dans cette nouvelle étape, les choses se complexifient et, les fondamentaux restant les mêmes, l’IA est devenue générative c’est-à-dire capable de créer contenus, textes, graphiques, sons. En grande partie, c’est grâce à la découverte des «réseaux antagonistes génératifs» (GAN, Generative Adversarial Networks) apparus en 2014, «qui permettent de produire des données qui présentent des distributions de probabilités similaires à celles ayant servi à l’entraînement de modèles». A l’origine, les GAN ont été utilisés pour créer des images les plus authentiques possible. Mais ils sont aussi utilisés maintenant pour faire des documents audios, des vidéos, des structures moléculaires… et hélas aussi des deep fakes ! Puis, apparus en 2018, les grands modèles de langage, les LLM, ont permis le développement des objets IA «vedettes» dont on parle tant, ChatGPT d’OpenAI avec GPT-3-5 comme langage LLM, PaLM qu’utilise Bard de Google, LLaMa, le modèle open source produit par Meta…
La question posée par le chapitre 16, «L’IA est-elle neutre ?» permet de rentrer dans sa dimension la plus complexe, à la croisée de la philosophie, des sciences humaines et sociales et de l’éthique. Les systèmes d’IA «se révèlent susceptibles de refléter différentes valeurs ou encore de conduire de manière systématique ou réitérée à des résultats inéquitables et pouvant renforcer ou engendrer des discriminations». Ces biais peuvent avoir été introduits plus ou moins consciemment, mais s’ils ont été inscrits à un moment de l’entraînement d’un modèle de deep learning par les données qui lui ont servi pour sa construction, l’affaire devient plus délicate : «Leur identification n’a rien d’évident. Si on pense aux grands modèles de langage, les jeux de données sur lesquels elle repose, leur entraînement initial, sont si vastes qu’il est difficile de les examiner sans passer par des méthodes statistiques.» «Le problème n’est pas seulement «d’atténuer» des biais, mais de déterminer comment et en quel sens. Les grands modèles de langage sont prisonniers des rets de l’éthique et de la politique. […] Mais l’éthique n’est pas un gage de pureté morale pour les objets et systèmes techniques, et elle ne peut être que l’un des espaces où se discute, se récuse, s’accompagne et se défend la place sociale de certains d’entre eux.»
Si les systèmes d’IA changent, les questions restent, c’est du moins ce que développe l’auteur dans le chapitre 17. Deux opinions radicalement opposées s’affrontent, la première selon laquelle les systèmes d’IA ne comprennent pas ce qu’ils font, et l’IA générale serait en cela une illusion ; à l’opposé, les langages LLM construiraient un «modèle du monde» suffisamment complexe pour qu’on puisse dire qu’ils le comprennent. «Les arguments autour de la question de savoir si (des) réseaux de neurones forment un modèle du monde laissent en réalité souvent apparaître une conception du monde comme modèle.» «Car si les systèmes d’IA ne peuvent comprendre le monde, c’est parce qu’ils s’efforcent de le posséder sans jamais être possédés par lui.»
Bien évidemment, comme l’écrit V. Garcia dans sa conclusion, «on serait bien en peine de conclure une histoire en train de se faire». De nombreux domaines et de nouvelles approches de l’IA continuent de se développer et sont certainement susceptibles de transformer nos vies. L’intérêt de ce livre vient du fait qu’il expose les arguments des uns et des autres, qu’il situe leurs limites et pose les questions qui en résultent plutôt que d’affirmer des réponses. Il décrit en quoi la plupart des utilisateurs des systèmes d’IA que nous sommes tous n’ont pas la moindre idée de comment ces systèmes fonctionnent, comment ils sont construits, de ce qu’ils peuvent faire et sur quels concepts ils reposent, ce qui ne nous empêche pas d’en être de grands consommateurs.
Mais le lecteur ne pourra que trouver des satisfactions dans les explications proposées, remettant en question les enthousiasmes les plus fous et les craintes les plus sombres. S’il n’est pas familiarisé avec l’IA, il peut aussi se perdre dans des notions parfois trop techniques ou trop théoriques, ou même parfois ésotériques comme les trois chapitres sur «les données». Le livre fait un état des lieux en remettant en perspective le chemin parcouru, il décrit ce qu’a été l’histoire de l’IA, là où elle en est aujourd’hui et jusqu’où elle est susceptible de se développer, évoquant les mutations prochaines, annonciatrices d’un inconnu qui surviendra quoi qu’il arrive. Et il est parfaitement compréhensible que cet inconnu soit anxiogène car peu d’entre nous comprennent les fondements de l’IA et de ses développements alors que des nouvelles nous annoncent chaque jour l’arrivée de dispositifs qui violent notre identité (par exemple la reconnaissance faciale utilisée dans les espaces publics) ou qui menacent notre vie (comme l’utilisation de drones tueurs sans qu’il y ait en amont une commande humaine), etc. Ce livre est donc en quelque sorte une petite histoire philosophique de l’IA, un ouvrage didactique et concis pour mieux comprendre, malgré ses difficultés, ce qu’est l’IA.