Les membres de l’Afas publient régulièrement des notes de lectures. Elles sont à retrouver ici.
Franck Zal
(Les Arènes, 2024, 256 p. 21€)
C’est l’histoire d’un chercheur passionné qui va découvrir les propriétés insoupçonnées d’un simple ver, un arénicole que l’on rencontre sous le sable des plages de Bretagne. Son invention : le M101, l’hémoglobine de ce ver dont la capacité d’emmagasiner de l’oxygène est quarante fois supérieure à celle de l’hémoglobine humaine. Grâce à cela, durant la marée basse, soit environ six heures, ce ver est capable de vivre sans oxygène.
Une première partie autobiographique permet au lecteur de suivre au plus près l’évolution d’un enfant d’une famille très modeste d’immigrés qui allait devenir ce chercheur révolutionnant la technique des greffons, permettant ainsi à des chirurgiens de renommée mondiale de réaliser des prouesses en la matière. Doué d’une volonté peu commune, Franck Zal va gravir tous les échelons qui, peu à peu, lui ouvriront les portes de la recherche marine. Son idée : suivre les traces du commandant Cousteau, et le destin ou le hasard va l’y aider par la rencontre d’anthropologues connus comme Pierre Lamaison, Françoise Héritier ou encore Claude Levi-Strauss durant son cursus universitaire. Une incroyable opportunité lui est offerte avec une mission sur un navire océanographique dans l’océan Pacifique. Suivront son intégration au DEA d’océanographie à Roscoff, puis une thèse grâce à l’octroi d’une bourse de recherche dans le laboratoire du professeur Talmond. Durant une seconde campagne océanographique, il va s’initier à ce qui deviendra l’objet de ses recherches, le sang des vers marins, autrement dit leur hémoglobine. De retour à Roscoff, il a l’idée de se tourner vers une matière première abondante, le ver qu’il voit tous les jours sur la plage, l’Arenicola marina. Il entre au CNRS en 1999. Toutefois, développer une recherche innovante au sein d’un organisme comme le CNRS nécessite disponibilité et tenacité. Même si, comme le reconnaît le docteur Zal, le CNRS lui apporte beaucoup pour développer son idée de valorisation, il lui faut des coudées plus franches. C’est pourquoi il en démissionne en 2007 pour créer sa propre entreprise, Hemarina. D’autres difficultés commencent, comme celle de vaincre les réticences d’une administration engluée dans le principe de précaution, contraire à toute innovation de rupture. Cela lui demandera quinze ans de recherche et développement et le dépôt de soixante-trois brevets pour obtenir une autorisation de mise sur le marché de ce qui sera considéré comme un dispositif médical sous le nom d’HEMO2life®. Après tout, ne retrouve-t-on pas là un problème de sécurité inhérent à toute innovation thérapeutique ?
Mais sa plus belle récompense sera celle dictée par des chirurgiens spécialistes de greffes extrêmes, l’un d’entre eux qualifiant cette découverte d'équivalente à celle de la pénicilline. HEMO2Life® permet en effet de mieux conserver et mieux préserver les greffons d’une absence éventuelle d’oxygène.
En revanche, l’idée première de considérer l’hémoglobine du ver Arenicola sous le nom d’HEMOXYCarrier®, sinon comme véritable substitut sanguin, du moins comme appoint lors de certaines transfusions sanguines d’urgence hors de l’hôpital, va se solder par un échec. L’entrée dans ce «monde du sang» va rencontrer divers obstacles, dont les réticences des responsables de l’Etablissement français du sang et de l’Institut national de transfusion sanguine (INTS), peu enclins à partager le gâteau.
Forte de ses premiers succès, Hemarina ne semble pas avoir atteint sa vitesse de croisière, puisque son fondateur nous fait miroiter les autres applications potentielles de cette hémoglobine miraculeuse : traitement des AVC, des traumatismes crâniens, du syndrome de détresse respiratoire aiguë, ou de la drépanocytose. Au-delà de ces applications immédiates, sont envisagés le traitement des cicatrisations chroniques au moyen d’un nouveau pansement, HEMHealing®, en dentisterie avec HEMDental®, et un réactif pour culture cellulaire baptisé HEMOXCell®.
En conclusion, ce livre passionnant nous décrit le parcours d’un chercheur qui a su vaincre moultes difficultés, dont celle de faire admettre qu’un simple ver de nos plages bretonnes est capable de sauver des vies humaines. Un bel exemple de biomimétisme : comprendre ce que la nature nous offre et en tirer le meilleur en termes d’innovation.
Collectif
(Muséo Editions/Muséum de Toulouse, 2023, 146 p. 24,50€)
Le titre est délibérément racoleur, le sous-titre ironique, mais le sujet est traité avec rigueur. La vie sexuelle des plantes et des animaux, tel est l’objet inédit de ce livre qui accompagne une exposition présentée au Muséum de Toulouse. L’ouvrage assemble photos, images, entretiens et articles rédigés par des scientifiques.
Le premier article rappelle les fondamentaux de la génétique de la reproduction. Un prérequis indispensable avant de découvrir, au fil des chapitres, la prodigieuse créativité de la nature pour se reproduire, aussi bien dans le monde végétal que dans le règne animal.
On peut très bien se reproduire sans sexualité. Il suffit de se recopier à l’identique, par division cellulaire. C’est le cas des bactéries, de certains mollusques, et du lézard fouette-queue dont la population est intégralement femelle et où le mâle n’existe pas !
En comparaison, la reproduction sexuée combine les gènes de deux parents et engendre plus de diversité. Mais elle est beaucoup moins efficace. Seule la femelle enfante. Le mâle se contente de lui apporter ses gènes. Pour cela, il lui faut séduire par des combats, des chants, des parades, des danses, des offrandes, des constructions. Une véritable débauche d’énergie. C’est pourtant la reproduction sexuée qui est largement majoritaire dans la nature. Ce qui rendait Darwin perplexe : «Il n’y a pas de plus grand mystère au monde que l’existence des sexes», a-t-il déclaré. Une énigme encore entière aujourd’hui selon Pierre-Henri Gouyon, professeur émérite au Muséum d’histoire naturelle. La nature n’a pas encore dévoilé tous ses secrets !
Jusqu’au XVIIIe siècle, on a cru que le monde végétal se reproduisait sans sexualité ; il était symbole de «virginité et de chasteté». En fait, la «sexualité discrète» des végétaux existe depuis un milliard d’années et n’a cessé de se diversifier. Ainsi de nombreuses espèces alternent, d’une génération à l’autre, reproductions asexuées et sexuées, dans un curieux schéma assez complexe.
Depuis 100 millions d’années, la fleur est l’organe de reproduction principal des plantes et porte généralement les organes des deux sexes. «Lorsque vous offrez un bouquet de fleurs, vous offrez des organes sexuels !», observe malicieusement Ali Akbari, responsable de l’exposition. La fleur peut s’autoféconder : c’est le cas du blé ou du pois. Généralement, le pollen d’une fleur va féconder une autre fleur, en prenant les moyens de transport disponibles : vent, eau, abeilles, papillons, oiseaux, mouches, chauve-souris, lézards. La fleur doit parfois faire preuve de créativité pour s’assurer les services de ses pollinisateurs, en mimant l’odeur de leur femelle, par exemple. Ceux-ci peuvent être très spécialisés : un papillon nocturne a développé une trompe de 30 cm pour collecter le pollen au fond d’une orchidée de Madagascar.
Sous une apparence calme et sereine, le monde des plantes est agité en permanence par une activité sexuelle trépidante : les 360 000 espèces de plantes à fleurs sont pollinisées par 130 000 espèces d’animaux, dont 20000 espèces d’abeilles !
Avec le règne animal, la discrétion n’est plus de mise. Les jeux de séduction sont exubérants et toujours d’une diversité incroyable. Le mâle utilise parfois la ruse : il offre un cadeau factice à la femelle convoitée et s’accouple pendant qu’elle le déballe. Le manchot papou est plus vertueux : il se présente à l’élue de son cœur avec un galet dans le bec. Une marque d’affection indéniable que la belle apprécie. Il s’enhardit alors, va quérir d’autres galets et construit le nid conjugal.
Le chapitre «Kamasutra animal» dévoile une inventivité débridée dans les pratiques de copulation. Ainsi le ver lombric, hermaphrodite, à la fois mâle et femelle, s’accouple tête-bêche avec son semblable et réalise une fécondation croisée.
L’intimidation, les violences, l’inceste sont communs chez les animaux, mais aussi la douceur et la tendresse. Le couple hippocampe reste enlacé pendant des heures avant que la femelle ne dépose ses œufs dans la poche du mâle, lequel se charge de l’incubation jusqu’à la naissance.
Les oiseaux sont plutôt fidèles en couple (à vie pour les cygnes) et les mammifères généralement polygames.
L’homosexualité est présente et rarement exclusive. Elle concerne 1500 espèces animales, tels les lions qui se câlinent pendant que les lionnes sont à la chasse,
Quant au poisson-clown, il change de sexe au cours de sa vie !
La conclusion des auteurs est limpide : tous les goûts sont dans la nature, laquelle n’a pas de morale et ne peut servir de référence aux comportements humains.
L’ouvrage fourmille d’informations amusantes ou sérieuses, agrémentées de nombreuses illustrations. Le texte est accessible, pimenté d’une bonne dose d’humour, sans jamais tomber dans le piège de la grivoiserie.
Un livre plaisant à lire et instructif.
Vivien Garcia
(Rivages, 2024, 120 p. 17€)
Vivien Garcia est philosophe, spécialiste des enjeux liés aux nouvelles technologies et des questions éthiques et politiques ; il enseigne à la faculté de médecine de l’université de Lorraine.
L’intelligence artificielle (IA) a actuellement le vent en poupe, suscitant les enthousiasmes les plus fous mais aussi les craintes les plus sombres. Sa mise sur le devant de la scène ravive de vieilles histoires de machines-esclaves ou d’entités suprahumaines se dressant contre leur créateur. Et pourtant, peu à peu, l’IA est en train de forger le monde qui advient, ce monde qui jusqu’à présent exerce sur nous une fascination.
La question «Que faire de l’intelligence artificielle ?» posée par ce livre a peu à peu émergé sans que l’on ait eu le temps de bien comprendre ce qu’elle incarne. Pourtant, l’IA ne date pas d’hier puisque, dès 1956, l’expression «intelligence artificielle» a été forgée au cours de la fameuse conférence du Dartmouth College, Alan Turing ayant déjà jeté les bases de la notion d’informatique dès le début des années cinquante, à partir du développement de la cybernétique dans les années quarante et cinquante.
Comme le propose l’auteur dans son introduction, «Ce livre entend combler une partie du fossé qui sépare la culture contemporaine de l’intelligence artificielle, en proposant une petite histoire qui refuse de faire l’impasse sur la dimension technique de celle-là. […] Elle éclaire son récit d’éléments philosophiques et critiques dont la technique, pour sa part, se tient trop souvent distante.» Il se penche sur les principales approches de l’IA et certaines des réalisations qu’elle a engendrées, refusant de s’en tenir au seul discours technique et faisant dialoguer ses concepts (algorithmes, réseaux de neurones, systèmes experts, modèles de fondation...) avec la philosophie.
Au cours de ses six premiers chapitres, ce livre décrit l’histoire de la naissance de l’IA à partir de celle de la cybernétique, et son évolution jusqu’à nos jours.
Ainsi successivement sont présentés :
- l’émergence des deux voies de l’IA, la voie connexionniste fondée sur les réseaux de neurones formels, qui a le vent en poupe depuis le tournant du XXIe siècle et qui triomphe aujourd’hui, et la voie de l’IA symbolique inspirée de la logique ;
- la description du cerveau et de l’esprit comme machines «car l’IA ambitionne de mettre au jour des machines capables de réaliser toutes sortes de tâches à première vue réservées aux êtres humains» ;
- l’intérêt de l’IA dans la perception, avec la naissance du «perceptron», première réalisation de l’IA présentant une capacité d’apprentissage, fleuron de l’IA connexionniste. Le perceptron a été mis au point en 1957 par Frank Rosenblatt au sein du laboratoire d’aéronautique de l’université Cornell, «dispositif visant à induire directement des concepts à partir de son environnement physique». Cette machine qui, pour l’époque, était d’une puissance rare, même si elle était capable de faire des erreurs, était alors constituée d’une seule couche de neurones artificiels ;
- mais quelles que soient ses qualités, un perceptron ne peut reconnaître n’importe quelle catégorie d’objet, et c’est l’IA symbolique qui va s’efforcer de devenir une intelligence générale artificielle «en cherchant des méthodes de résolutions de problèmes qui ne soient pas simplement algorithmiques, c’est-à-dire qui ne s’appliquent qu’à une seule classe de problèmes».
Au chapitre 7, V. Garcia élargit son propos en nous entraînant dans l’intervention de l’IA dans le monde des jeux, cadres limités et définis par des règles qui ne reposent pas sur le hasard, tel que les échecs, les dames ou le bridge, dont chaque partie de l’un de ces jeux permet d’établir une occasion de comparer le programme aux êtres humains. En effet, une partie est décomposable en une succession de coups et peut donc être comprise en un ensemble de transformations, de passages d’un état du jeu à un autre, à l’occasion desquels un choix doit être réalisé. Pour cela l’IA dispose de pistes, dont le fameux traité paru en 1944 de la Théorie des jeux et du comportement économique d’Oscar Morgenstern et du célèbre mathématicien et cybernéticien John von Neumann. A partir des mathématiques, l’approche adoptée dans cette théorie s’intéresse aux coups possibles des différents adversaires, et «les choix individuels à l’œuvre dans ces jeux seraient analogues à ceux que rencontrent les acteurs économiques en compétition pour maximiser leur utilité». Et l’IA est susceptible «de créer des programmes informatiques capables, dans le cadre délimité d’un jeu, d’appliquer une stratégie possiblement gagnante». Une telle méthode a pour but de trouver une solution la plus satisfaisante possible et «l’IA supposée en résulter n’est donc pas infaillible. Elle compte simplement faire aussi bien, et même mieux que les êtres humains».
Au chapitre 8, pour répondre à la question «Qu’est-ce que l’IA appelle penser ?», V. Garcia fait appel à Hannah Arendt et à son livre Du mensonge à la violence. Essais de politique contemporaine (1972) écrit en réaction aux Pentagon Papers, étude du département de la Défense des Etats-Unis portant sur leur rôle dans la guerre du Viêt Nam. Dans son essai, elle s’adonne à l’examen de ce qu’elle considère comme deux formes contemporaines du vieil art de mentir. Affirmant que la lecture de ces Pentagon Papers laisse parfois l’impression que l’Asie du Sud-Est a été prise en charge par un ordinateur plutôt que par des hommes responsables des décisions, elle s’élève avec virulence contre l’idée que «les hommes des think tanks sont des penseurs et que les ordinateurs peuvent penser».
Les chapitres 9 et 10 analysent comment l’IA a évolué, d'une part, en fonction des aléas de son financement par les militaires, les industriels et les universités, et d'autre part, en fonction des rapports de collaboration ou de compétition entre une intelligence générale artificielle et les systèmes experts, sur toile de fond d’un développement de l’informatique qui s’est répandue tant sur les lieux de travail que dans la vie familiale et personnelle.
A partir du perceptron de Rosenblatt constitué d’une seule couche de neurones formels, s’est développée une démarche permettant la construction de dispositifs beaucoup plus élaborés avec l’addition en parallèle d’autres couches de neurones formels composant une structure d’une grande complexité. Ce développement a été réalisé grâce à une transition permettant le passage du learning au deep learning, apprentissage profond par lequel la machine peut s’auto-enseigner grâce à la très grande quantité de données qui lui sont fournies et qu’elle peut stocker. Ainsi, avec la mise en place d’algorithmes de rétro-propagation permettant de rectifier des données issues d’une analyse de rang n, il devient possible de déterminer quelles modifications opérer pour corriger les données de rang n+1, permettant «une automatisation de l’entraînement selon un mécanisme qui n’est pas sans rappeler la rétroaction de la cybernétique». Cette mise en relation du deep learning avec les neurones cachés de l’IA est exposée dans le chapitre 11. On ne peut donc que constater que ce sur quoi reposent les bases de cette IA n’est constitué que sur le stockage d’un nombre considérable de données et sur leur utilisation pour un auto-apprentissage par le deep learning, autrement dit que cette IA est «plus artificielle qu’intelligente». V. Garcia résume ainsi ces progrès exponentiels comme étant le risque d’«un point de rupture irréversible qui remettrait en question les civilisations humaines».
C’est alors que l’IA a pu évoluer grâce à l’acquisition d’une quantité suffisante de données pour entraîner correctement un modèle, car une puissance de calcul importante, seule, n’est pas suffisante. Le problème de l’acquisition des données a donc émergé au premier plan, non seulement en quantité mais aussi en qualité : «les données ne sont jamais données, elles sont le fruit de différentes normes et médiations techniques, sociales et culturelles plus ou moins conscientes et affirmées». Et en calculant la différence de distribution des mots au sein d’une base de données, on peut, au sein d’un ensemble fourni à la machine, calculer leur fréquence et en tirer des prédictions. «Fondées sur ce principe, les méthodes de plongement lexical proposent d’entraîner un réseau de neurones à partir des textes qu’on lui fournit […] Le deep learning participe de l’arsenal d’une «gouvernementalité algorithmique», soit d’une modalité de gouvernement des conduites fondée sur l’anticipation et la gestion du risque». Cette importance relative aux données est soulignée dans les trois chapitres 12, 13 et 14, exposant en quoi les données ne sont pas données, en quoi la captation des données est au service de l’IA et en quoi elles permettent d’élaborer des prédictions.
De l’IA générative aux LLM (Large Language Models), la nouvelle vague de l’IA s’est développée, ce que nous montre le chapitre 15. Techniquement, dans cette nouvelle étape, les choses se complexifient et, les fondamentaux restant les mêmes, l’IA est devenue générative c’est-à-dire capable de créer contenus, textes, graphiques, sons. En grande partie, c’est grâce à la découverte des «réseaux antagonistes génératifs» (GAN, Generative Adversarial Networks) apparus en 2014, «qui permettent de produire des données qui présentent des distributions de probabilités similaires à celles ayant servi à l’entraînement de modèles». A l’origine, les GAN ont été utilisés pour créer des images les plus authentiques possible. Mais ils sont aussi utilisés maintenant pour faire des documents audios, des vidéos, des structures moléculaires... et hélas aussi des deep fakes ! Puis, apparus en 2018, les grands modèles de langage, les LLM, ont permis le développement des objets IA «vedettes» dont on parle tant, ChatGPT d’OpenAI avec GPT-3-5 comme langage LLM, PaLM qu’utilise Bard de Google, LLaMa, le modèle open source produit par Meta...
La question posée par le chapitre 16, «L’IA est-elle neutre ?» permet de rentrer dans sa dimension la plus complexe, à la croisée de la philosophie, des sciences humaines et sociales et de l’éthique. Les systèmes d’IA «se révèlent susceptibles de refléter différentes valeurs ou encore de conduire de manière systématique ou réitérée à des résultats inéquitables et pouvant renforcer ou engendrer des discriminations». Ces biais peuvent avoir été introduits plus ou moins consciemment, mais s’ils ont été inscrits à un moment de l’entraînement d’un modèle de deep learning par les données qui lui ont servi pour sa construction, l’affaire devient plus délicate : «Leur identification n’a rien d’évident. Si on pense aux grands modèles de langage, les jeux de données sur lesquels elle repose, leur entraînement initial, sont si vastes qu’il est difficile de les examiner sans passer par des méthodes statistiques.» «Le problème n’est pas seulement «d’atténuer» des biais, mais de déterminer comment et en quel sens. Les grands modèles de langage sont prisonniers des rets de l’éthique et de la politique. […] Mais l’éthique n’est pas un gage de pureté morale pour les objets et systèmes techniques, et elle ne peut être que l’un des espaces où se discute, se récuse, s’accompagne et se défend la place sociale de certains d’entre eux.»
Si les systèmes d’IA changent, les questions restent, c’est du moins ce que développe l’auteur dans le chapitre 17. Deux opinions radicalement opposées s’affrontent, la première selon laquelle les systèmes d’IA ne comprennent pas ce qu’ils font, et l’IA générale serait en cela une illusion ; à l’opposé, les langages LLM construiraient un «modèle du monde» suffisamment complexe pour qu’on puisse dire qu’ils le comprennent. «Les arguments autour de la question de savoir si (des) réseaux de neurones forment un modèle du monde laissent en réalité souvent apparaître une conception du monde comme modèle.» «Car si les systèmes d’IA ne peuvent comprendre le monde, c’est parce qu’ils s’efforcent de le posséder sans jamais être possédés par lui.»
Bien évidemment, comme l’écrit V. Garcia dans sa conclusion, «on serait bien en peine de conclure une histoire en train de se faire». De nombreux domaines et de nouvelles approches de l’IA continuent de se développer et sont certainement susceptibles de transformer nos vies. L’intérêt de ce livre vient du fait qu’il expose les arguments des uns et des autres, qu’il situe leurs limites et pose les questions qui en résultent plutôt que d’affirmer des réponses. Il décrit en quoi la plupart des utilisateurs des systèmes d’IA que nous sommes tous n’ont pas la moindre idée de comment ces systèmes fonctionnent, comment ils sont construits, de ce qu’ils peuvent faire et sur quels concepts ils reposent, ce qui ne nous empêche pas d’en être de grands consommateurs.
Mais le lecteur ne pourra que trouver des satisfactions dans les explications proposées, remettant en question les enthousiasmes les plus fous et les craintes les plus sombres. S’il n’est pas familiarisé avec l’IA, il peut aussi se perdre dans des notions parfois trop techniques ou trop théoriques, ou même parfois ésotériques comme les trois chapitres sur «les données». Le livre fait un état des lieux en remettant en perspective le chemin parcouru, il décrit ce qu’a été l’histoire de l’IA, là où elle en est aujourd’hui et jusqu’où elle est susceptible de se développer, évoquant les mutations prochaines, annonciatrices d’un inconnu qui surviendra quoi qu’il arrive. Et il est parfaitement compréhensible que cet inconnu soit anxiogène car peu d’entre nous comprennent les fondements de l’IA et de ses développements alors que des nouvelles nous annoncent chaque jour l’arrivée de dispositifs qui violent notre identité (par exemple la reconnaissance faciale utilisée dans les espaces publics) ou qui menacent notre vie (comme l’utilisation de drones tueurs sans qu’il y ait en amont une commande humaine), etc. Ce livre est donc en quelque sorte une petite histoire philosophique de l’IA, un ouvrage didactique et concis pour mieux comprendre, malgré ses difficultés, ce qu’est l’IA.
Frédéric Jiguet
(Actes Sud, 2024, 176 p. 21€)
Les grolles du Poitou, les corbeaux, les corneilles et autres corvidés sont des oiseaux noirs au cri désagréable. Ils aiment les vieilles ruines et ne rechignent pas à manger les cadavres, d’où une réputation désastreuse.
A la campagne, ils sont difficiles à approcher car très farouches. Les agriculteurs leur reprochent de causer des dégâts aux cultures et au petit gibier.
A Paris, où ils se sont acclimatés, ils ont un comportement qui irrite le Parisien en dispersant le contenu des poubelles et parfois en leur attaquant le crâne. La mairie de Paris, qui souhaitait avoir une étude sérieuse avant de commencer leur massacre, a contacté Frédéric Jiguet, professeur au Muséum national d’histoire naturelle, qui a alors commencé ses recherches, objet de ce livre, qui comporte dix-huit chapitres et une importante bibliographie suivie d’une visite de Paris à l’usage des corneilles.
Les premiers essais de capture, en 2015, à l'aide d'un filet agrémenté de frites et d’œufs, puis d'une cage-piège plus efficace, ont permis de baguer les corneilles et de les suivre. On constate qu'elles peuvent avoir une longue vie, qu’elles sont très futées et qu'elles ont des caractères très différents. Certaines prennent l’habitude de se faire attraper pour manger, de se faire relâcher puis de recommencer. Une autre arrive à sortir du piège et à y revenir pour se servir un bon repas. On constate aussi qu’elles fréquentent les parcs parisiens en fonction des heures d’éclairage.
Depuis les attentats de Paris, les poubelles sont équipées de sacs en plastique transparent. La corneille observatrice a vite compris : elle perce le sac et disperse les détritus en sélectionnant ce qui l’intéresse.
Le confinement du début des années deux mille vingt a permis une étude originale car les parcs étaient fermés et il n’y avait plus de nourriture autour des restaurants. Un modèle mathématique sophistiqué a été conçu et a montré l’impact du confinement sur leur survie.
Concernant l’arrachage des plantations par les corneilles, une recherche approfondie a montré qu'elles n’abîment pas les pelouses récentes par méchanceté ou provocation mais pour y trouver des larves de hannetons, dont elles raffolent. Cette découverte a permis de trouver une solution originale pour éviter ce problème récurrent dans les parcs parisiens.
Chaque année, début juin, la mairie de Paris reçoit des signalements de corneilles agressives (dont le nombre me paraît toutefois infiniment plus faible que pour les humains !). L’auteur nous apprend les causes de ce phénomène et les procédés pour s’en prémunir.
Il évoque ensuite le problème du jardin des Tuileries où l’on avait décidé, au milieu des années deux mille dix, de piéger les corneilles pour les faire émigrer en province. Mais on s’est rendu compte que ces malheureux volatiles servaient en fait de nourriture aux rapaces des piégeurs. La raison est revenue et les corneilles y sont désormais gérées par des méthodes plus «humaines».
Une information intéressante est de savoir d’où viennent les corneilles parisiennes. Pour cela, l’auteur a développé une méthode à partir de la mesure des métaux lourds dans les plumes : compte tenu de ce que les corneilles parisiennes mangent et respirent, elles devraient avoir un taux de métaux lourds plus important que celles des campagnes. En fait, cette technique n’a pas donné les résultats escomptés et on a commencé une expérience avec des balises GPS. On suit ainsi les aventures de la corneille baguée «Vert 335», ce qui va influencer l’analyse des données fournies par ces balises.
L’auteur quitte ensuite les corneilles parisiennes pour étudier leurs consœurs campagnardes. Il montre que leur destruction n’est pas la solution et propose des méthodes pour les réguler. Avec les expériences M et M’s, il conclut qu’en enrobant les semences avec des molécules simples, il serait possible de trouver un répulsif efficace.
Un problème plus grave concerne les virus transportés par les oiseaux : ces virus, souvent liés à la concentration d'oiseaux dans les élevages intensifs, tuent un grand nombre d’oiseaux sauvages et peuvent, éventuellement, être transmis aux humains. Toutefois les résultats des recherches menées par l’auteur sont rassurants.
Au printemps, des cornillons tombent au sol et des bonnes âmes les soignent et les relâchent. Mais ceux-ci ne survivent pas car leurs parents n’ont pas pu leur donner l’éducation nécessaire. De nouvelles recherches devront être engagées pour que cette bonne action devienne efficace.
Enfin les dernières constatations de l’auteur sont amusantes. Il décrit ses mésaventures avec les corneilles qui le reconnaissent au Jardin des plantes, malgré parfois son déguisement ! Il décrit aussi une machine qui fait ramasser les détritus par les corneilles – dont les mégots de cigarettes que les bipèdes humains mal élevés jettent impunément dans les villes. Sur le site «Birds for change», on peut voir une vidéo où l’on voit l’auteur en compagnie des inventeurs de cette étonnante machine.
À la fin de l’ouvrage, Frédéric Jiguet se livre à un plaidoyer pour sauver ces animaux intelligents, dont pratiquement un million est tué chaque année par les humains, qui les qualifient d'ESOD (espèces susceptibles d’occasionner des dégâts) – curieusement l’homme n’en fait pas partie ! Et il nous invite à rejoindre les observateurs de corneilles baguées afin de faire progresser ces recherches passionnantes.
On trouve en annexe de nombreuses références ainsi qu’un guide de Paris adressé aux corneilles, drôle et instructif.
A la fin de pratiquement chaque chapitre, un QR code permet d’accéder à un film illustrant les propos du chapitre.
J’ai lu ce livre d’un trait. J'avais déjà beaucoup de sympathie pour les corvidés, je les connais maintenant beaucoup mieux et ils ne me semblent plus du tout de mauvais augure !
Jeff Hawkins
(Quanto, 2023, 296 p. 23,25€)
Jeff Hawkins est un ingénieur en informatique qui s’est intéressé aux neurosciences. Dans ce livre, il veut montrer que le cerveau ne fonctionne pas comme les neurosciences ont essayé de le décrire, du moins le prétend-il, c’est-à-dire l’établissement d’un modèle unique et fixe du monde décrivant le cerveau comme un genre d’ordinateur (des informations entrent, sont traitées et le cerveau agit), mais que ce sont en réalité des centaines de milliers de cartographies de tout ce que nous connaissons qu’il réalise à chaque instant, nous permettant de réaliser notre perception du monde et de nous-même.
Sa démonstration ambitieuse est construite en trois parties :
1. «Une nouvelle vision du cerveau», qui se veut principalement neurobiologique, dans laquelle il décrit sa théorie des référentiels, qu’il baptise «théorie des mille cerveaux», qui s’inscrit dans l’histoire de l’étude du cerveau et qui prétend faire comprendre au lecteur ce qu’être intelligent veut dire.
2. «L’intelligence machine», qui fait référence à l’intelligence artificielle (IA), expliquant avec sa théorie des «mille cerveaux» pourquoi l’IA d’aujourd’hui n’est pas encore de l’intelligence et comment rendre les machines vraiment intelligentes ; il explique pourquoi certaines d’entre elles seront selon lui conscientes ; enfin il pose le problème du risque existentiel que constitueraient ces machines intelligentes du fait qu’il serait possible de créer une technologie qui conduira l’humanité à sa perte. Mais il ne le croit pas et explique pourquoi, grâce à ses découvertes, l’intelligence des machines est en soi inoffensive : «il s’agit d’une technologie très puissante dont le risque réside en vérité dans l’usage qu’en feront les humains».
3. «L’intelligence humaine», qui décrit la condition humaine sous la perspective du cerveau et de l’intelligence ; nos perceptions sont à chaque instant une simulation du monde, mais pas le monde réel : «l’une des conséquences de la théorie des mille cerveaux est que nos croyances au sujet du monde peuvent être fausses, […] nos fausses croyances associées aux plus primitives de nos émotions risquent de menacer notre survie à long terme.»
Dans la première partie, «Une nouvelle vision du cerveau», il se propose tout d’abord de nous décrire trois «illuminations» qui lui ont permis de comprendre le rôle du néocortex, cette partie du cerveau cortical la plus évoluée de l’encéphale :
- «Découverte numéro un : le néocortex acquiert un modèle prédictif du monde», car le néocortex effectue un grand nombre de prédictions dont nous n’avons pas conscience.
- «Découverte numéro deux : les prédictions s’effectuent à l’intérieur des neurones», ces prédictions se présentent sous deux formes, les unes parce que le monde change autour de nous, les autres parce qu’on bouge soi-même par rapport au monde ; il appuie l’essentiel de sa démonstration sur la théorie de V. Mountcastle selon laquelle toutes les parties du néocortex, quelle que soit la spécificité de chaque partie (vue, audition, toucher...), sont organisées en colonnes et obéissent au même principe. Il inscrit alors sa démarche dans le sillage de la proposition de V. Mountcastle selon laquelle un algorithme cortical commun laisse entendre que chaque colonne du cerveau effectue des prédictions des deux formes.
- «Découverte numéro trois : le secret de la colonne corticale réside dans les référentiels», car les neurones du néocortex sont capables de fixer un référentiel en relation avec un objet, un emplacement ou une situation, et chaque colonne du néocortex possède des neurones qui représentent les référentiels.
J. Hawkins formule alors l’hypothèse selon laquelle le cerveau classe toutes les connaissances à l’aide de référentiels, et la pensée survient quand on active des emplacements successifs dans les référentiels: chaque colonne du néocortex possède des cellules qui créent des référentiels.
S’appuyant sur l’hypothèse de V. Mountcastle selon laquelle il n’y a qu’un seul algorithme commun à toute perception et à toute cognition se rapportant aux 150 000 colonnes corticales de notre néocortex, J. Hawkins propose alors que l’algorithme cortical commun repose sur les référentiels qui fournissent le substrat de l’apprentissage de la structure du monde.
Et il conclut sa première partie en formalisant sa «théorie des mille cerveaux» : les connaissances que contient notre cerveau sont réparties, la connaissance d’un objet est répartie sur des milliers de colonnes. D’où le nom de «théorie des mille cerveaux», dans la mesure où la connaissance de n’importe quel objet est distribuée parmi des milliers de modèles complémentaires. La théorie des mille cerveaux décrit comment le néocortex acquiert un modèle tridimensionnel d’un objet en faisant appel à des référentiels.
Dans la deuxième partie, «L’intelligence machine», J. Hawkins décrit l’impact qu’aura sa théorie des mille cerveaux sur l’avenir de l’IA, théorie qui laisse entendre que l’avenir de l’intelligence machine sera très différent de ce à quoi réfléchissent la plupart des chercheurs qui travaillent sur l’IA.
En posant la question de savoir si les machines peuvent être conscientes, il considère que le problème de la conscience ne peut être aujourd’hui que partiellement réductible à une approche neurobiologique et que pour l’heure il reste incompris. Mais il affirme que les machines qui fonctionneront selon les principes du cerveau seront conscientes ; il considère que les systèmes d’IA ne fonctionnent pas ainsi aujourd’hui mais ils le feront un jour et ils seront conscients.
Pour J. Hawkins, les machines intelligentes serviront non seulement pour la réalisation d’activités telles que celles pratiquées aujourd’hui mais aussi à acquérir un savoir nouveau, une compréhension de l’inconnu, et permettront de propulser l’adoption de l’IA dans des directions inattendues. Mais que se passera-t-il si les machines intelligentes qui seront développées réfléchissent plus vite et plus loin que nous ? Ne constitueront-elles pas une menace pour le devenir de l’humanité ? Des groupes de réflexion se sont constitués pour étudier les risques que pose l’IA, et des mises en garde publiques affirmant que la création de machines (trop !) intelligentes risquait de conduire à l’asservissement de l’espèce humaine, l’IA serait une menace existentielle pour l’espèce humaine. Face à cette menace, l’auteur reste optimiste et il ne fait aucun doute pour lui que les machines intelligentes ne représentent aucune menace existentielle pour l’humanité car les machines intelligentes ne posséderont pas d’émotions ni de motivations de type humain à moins qu’on les en dote volontairement. Dans la mesure où les machines intelligentes ne seront pourvues ni de la capacité de se répliquer ni de motivations, elles ne constitueront aucune menace réelle pour l’humanité. La meilleure option, pour l’heure, est de préparer des accords internationaux exécutoires sur ce qui est admissible et ce qui ne l’est pas.
Dans la troisième partie, «L’intelligence humaine», J. Hawkins se propose d’examiner les risques inhérents à notre intelligence et à la structure de notre cerveau sous le prisme de la théorie des mille cerveaux. Pour lui, un des points essentiels est que le cerveau ne connaît qu’un sous-ensemble du monde réel et que nous ne percevons pas le monde lui-même mais le modèle du monde que nous nous construisons, que nous vivons dans une simulation. Le triomphe de l’intellect humain, c’est l’expansion de notre modèle du monde au-delà de ce qui est directement observable, c’est l’apprentissage du monde par l’expérience personnelle grâce au langage.
Dans une vision très simpliste de l’activité de notre cerveau, l’auteur considère qu’il est divisé en deux parties, 30% étant constitué par un cerveau ancien qui crée les plus primitifs de nos désirs et de nos actions, et 70% par le néocortex, support de notre intelligence supérieure. Les parties anciennes de notre cerveau sont à l’origine de comportements primitifs alors que le néocortex a la capacité de les maîtriser. J. Hawkins met alors en avant les risques existentiels de l’intelligence humaine, car dans la lutte entre cerveau ancien et néocortex, c’est souvent le premier qui gagne, tout en admettant que le néocortex peut contrecarrer le cerveau ancien. A partir de sujets tels que «les vaccins sont une cause d’autisme», «le réchauffement climatique n’est pas une menace», «il y a une vie après la mort», il élabore une théorie selon laquelle «le cerveau forme ses croyances» et met en avant trois items qui en sont à l’origine : l’impossibilité d’en faire l’expérience directe, le rejet de tout élément contradictoire et la propagation virale de la croyance. Ainsi, en élaborant de telles croyances, l’intelligence pourrait être à l’origine de notre possible destruction, et c’est dans la structure du cerveau (30% de cerveau ancien et 70% de néocortex) que réside le problème car le cerveau ancien est adapté à la survie à court terme et notre néocortex s’est développé «pour servir le cerveau ancien». L’auteur en conclut que «nous sommes face à plusieurs menaces existentielles : notre cerveau ancien est aux commandes et nous empêche de faire des choix soutenant notre survie à long terme ; et les technologies globales que nous avons créées (grâce à notre néocortex) peuvent être détournées par des gens habités de fausses croyances».
Pour échapper à ces menaces, il propose plusieurs issues :
- la fusion du cerveau et de l’ordinateur mais pas au point de pleinement unir le cerveau et la machine, tout en admettant qu’une telle fusion sera sans doute un jour menée à bien ;
- la préservation et la propagation de la connaissance (ou savoir), qui représente ce que l’on a appris du monde – le modèle du monde qui réside dans notre néocortex – mais indépendamment des êtres humains, «en archivant notre histoire et notre savoir de façon à ce que de futures espèces intelligentes sur Terre puissent s’instruire à propos de l’humanité […], ou en créant un signal durable qui informe les êtres intelligents ailleurs dans l’espace et dans le temps que des humains intelligents ont un jour vécu autour de l’étoile nommée Soleil» ;
- devenir une espèce multiplanétaire en occupant une autre planète, par exemple en envoyant des gens sur Mars pour fonder une colonie humaine ;
- modifier nos gènes puisque maintenant la technologie permettant l’édition précise de molécules d’ADN a été mise au point. Par exemple pour qu’un humain puisse être congelé aujourd’hui et décongelé dans l’avenir ; ou pour supprimer les comportements agressifs et rendre l’individu plus altruiste ; ou manipuler nos gènes pour modifier le cours de l’évolution, pour «améliorer» notre progéniture. Et de conclure : «je peux facilement imaginer une foule de scénarios invitant à estimer qu’il est dans son intérêt individuel de procéder à une modification significative de son ADN. Il n’y a pas de bien ni de mal absolu, seulement des choix qui s’offrent à nous.»
En conclusion de son livre, J.Hawkins fait la proposition suivante : «le moyen suprême de délivrer notre intelligence de l’emprise de notre cerveau ancien et de notre biologie consiste à créer des machines aussi intelligentes que nous et qui ne dépendent pas de nous. […] Le savoir et l’intelligence sont plus précieux que les gènes et la biologie et, par conséquent, ils méritent d’être préservés au-delà de leur habitacle habituel dans notre cerveau biologique. […] J’ai évoqué plusieurs façons dont nous pourrions réduire les risques qui planent sur nous. Plusieurs d’entre elles réclament la création de machines intelligentes.»
Ce livre, qui n’est pas toujours facile à lire, est assez déroutant et présente des aspects assez paradoxaux. Dans la première partie, J. Hawkins met en avant des affirmations quelque peu naïves comme cette conception réduisant le cerveau à deux parties, une partie ancienne (30%) et le néocortex (70%), et, s’appuyant sur la théorie de Mouncastle des colonnes corticales, il affirme qu’elles sont toutes semblables et fonctionnent toutes sur le même modèle pour introduire sa théorie des mille cerveaux. Dans la deuxième partie, il analyse de façon tout à fait intéressante et pertinente en quoi l’IA telle que nous la connaissons aujourd’hui n’est pas intelligente, et en quoi l’intelligence machine sera l’une des technologies les plus bénéfiques que nous aurons jamais créées. Enfin, dans la troisième partie, il se propose d’observer la condition humaine sous le prisme de la théorie de l’intelligence et du cerveau, et il se lance alors dans des réflexions et des propositions tout à fait surprenantes sur l’avenir de la condition humaine, qui est pour lui source d’inquiétude.
J’en conclurai que J. Hawkins est incontestablement un ingénieur en informatique très compétent et performant, dans la mesure où les sociétés qu’il a créées sont performantes, que, dans ce domaine, il est à l’origine de publications, qu’il cite, intéressantes, et que ses réflexions sur l’IA sont tout à fait stimulantes ; mais il s’est forgé une vision un peu stéréotypée de la neurobiologie pour assoir sa théorie des mille cerveaux ; enfin sa vision de l’avenir de la société humaine l’amène à des propositions déroutantes, même s’il prend toujours la précaution de préciser qu’«il n’est pas en train de prescrire la machine à suivre et que son objectif est de susciter le débat».
Lydéric Bocquet
(Fayard, 2023, 96 p. 12€)
Un petit livre pour une grande découverte !
L’auteur, Lydéric Bocquet, est normalien, professeur à l’ENS et directeur de recherche au CNRS (laboratoire de physique de l’ENS). Il est membre de l’Académie des sciences et titulaire, pour la période 2022-2023, de la chaire Innovation technologique (Liliane Bettencourt) au Collège de France. L’ouvrage édité chez Fayard dans la collection «Leçons inaugurales du Collège de France» n’est autre que la transcription de sa leçon inaugurale prononcée au Collège de France le 2 février 2023.
Qui aurait l’idée de monter une expérience pour faire s’écouler de l’eau à travers un tube (un nanotube de carbone en l’occurrence) dont le diamètre est de l’ordre du nanomètre, c’est-à-dire seulement dix fois plus que la dimension d’une molécule d’eau ? Lydéric Bocquet l’a fait, inspiré par une devise d’Anne Sylvestre qu’il a faite sienne : «Là où j’ai peur, j’irai» et pour répondre à une question de son fils à propos d’un titre du journal Libération du 30 août 2005 : «Pétrole : comment s’en passer ?». La question était : «Papa, tu es chercheur ! qu’est-ce que tu ferais toi pour résoudre ça ?». Relever le défi l’a conduit à prouver que l’équation utilisée par tous les mécaniciens des fluides pour décrire les comportements des fluides en mouvement à l’échelle macroscopique, la fameuse équation de Navier Stokes (la seule équation qui figure dans son ouvrage), n’est pas suffisante pour décrire les phénomènes observés à cette échelle du nanomètre ! Lorsque le diamètre du capillaire diminue, le frottement diminue également jusqu’à s’annuler pour des valeurs inférieures à dix nanomètres, ce qui explique qu’on puisse obtenir, dans ces tubes très fins, des vitesses de passage beaucoup plus importantes que celles prévues par l’équation de Navier Stokes. Encore faut-il être capable de mesurer de si faibles débits ! La première partie du livre est consacrée à cette découverte expérimentale (rendue possible par l’utilisation d’une méthode originale pour mesurer de très faibles débits) et à l’explication qui a pu être donnée de la production simultanée d’électricité. Tout réside dans le couplage de phénomènes de natures hydraulique et électrique à la paroi du tube : Lydéric Bocquet détaille ces interactions mais il utilise une image qui facilite la compréhension : celle des interactions entre le vent et la houle. Ce chapitre, accessible à tous, passionnera sûrement les connaisseurs du domaine mais l’ouvrage ne s’arrête pas là.
Des ingénieurs ont eu vent de ces travaux : ils ont imaginé la façon de changer d’échelle par l’utilisation d’une membrane nanoporeuse pour aboutir ainsi à un procédé innovant de production d’énergie verte en récupérant l’électricité produite au passage de l’eau. C’est cette suite qui constitue la deuxième partie de l’ouvrage de Lydéric Bocquet : une analyse de ce passage de la recherche à l’innovation technologique grâce à la collaboration et aux interactions entre un laboratoire de recherche fondamentale et un groupe d’ingénieurs en quête d’une idée pour produire une énergie verte de façon continue à partir de ressources facilement disponibles et prêts à s’atteler au changement d’échelle, au travers de la création d’une startup. Le lecteur découvrira ainsi comment une membrane nanoporeuse (dont les pores ont une dimension moyenne de l’ordre du nanomètre) peut être utilisée comme une barrière semi-perméable entre de l’eau salée (eau de mer) et de l’eau douce. Dans ces conditions, un écoulement d’eau se produit naturellement entre l’eau douce et l’eau salée dans les nanopores de la membrane. L’eau douce traverse la membrane pour diluer l’eau salée : c’est le phénomène d’osmose, connu de longue date. La nouveauté qui résulte des travaux de Lydéric Bocquet c’est qu'en fonction de la membrane nanoporeuse utilisée, cet écoulement peut reproduire à grande échelle les phénomènes observées au laboratoire sur un nanotube et produire de l’électricité de façon continue. Les estuaires des grands fleuves constitueraient donc un lieu idéal pour l’installation de telles «centrales» !
Lydéric Bocquet utilise cet exemple pour illustrer la démarche qui associe chercheurs et ingénieurs innovants et permet la valorisation de la recherche fondamentale au travers de ce processus d’innovation. C’est une grande leçon, à la hauteur de l’importance de la découverte et de l’enjeu que représente son application : la production d’une nouvelle forme d’énergie renouvelable qui, dans un avenir proche, pourrait devenir la technologie dominante ! On estime en effet qu’il y aurait mille à deux mille Gigawatts de puissance osmotique récupérable dans les estuaires des grands fleuves, soit l’équivalent de mille à deux mille réacteurs nucléaires d'un Gigawatt. Pour mémoire, «aujourd’hui, il n’y a que 440 réacteurs nucléaires dans le monde», dont 56 en France ! Il s’agit donc bien d’une technologie majeure qui pourrait émerger à partir de ces travaux et de cette collaboration ! Au-delà de cette immersion dans la genèse d’une innovation, cet ouvrage est un plaidoyer pour une collaboration entre recherche et innovation, une symbiose seule capable d’apporter une réponse technologique aux défis de la transition écologique, dans les courts délais qu’impose la rapidité du changement climatique.
Jean Audouze, Marie-Christine Maurel
(L'Archipel, 2023, 240 p. 20€)
Le livre de Jean Audouze et Marie-Christine Maurel est préfacé avec humour par Erik Orsenna, qui commence avec ces mots : «Quand je pense que j’aurais pu mourir idiot...» Eh bien, je pense comme lui que quel que soit notre niveau scientifique d’origine, cet ouvrage fait progresser nos connaissances et qu'après l’avoir lu, on est fier de ce que la science est capable de découvrir et de transmettre.
Le livre nous transporte de façon pédagogique depuis le Big Bang, en passant par la création de la Terre, jusqu’à l’apparition d’Homo sapiens. Les auteurs nous rappellent au fur et à mesure les connaissances nécessaires en physique, biologie, mais aussi en histoire des sciences, qui permettent d’appréhender le très bon niveau scientifique de l’ouvrage.
L’aventure commence par la théorie du Big Bang, qui n’est peut-être pas le début du monde mais les connaissances actuelles en physique ne permettent pas de remonter plus avant. On y voit l’apparition des premières particules et des premiers noyaux. Au bout de 300 000 ans, les premières étoiles et les galaxies, dont le Soleil, apparaissent. On est rassuré de savoir que la taille du Soleil étant relativement petite, cela lui confère une durée de vie plus longue que ses congénères de grande masse.
En tant que chimiste, je suis heureux de trouver, dans le quatrième chapitre, l’apparition des éléments chimiques. On découvre les différents processus qui, en partant de la nucléosynthèse initiale, créent le carbone 12, qui est un maillon essentiel de la vie, et les atomes plus lourds comme le fer.
L’origine du Système solaire est ensuite décrite, avec le Soleil qui est une étoile parmi les centaines de milliards de la Voie lactée. La Terre quant à elle est un cas particulier parmi les cent milliards de planètes de la galaxie car sur elle se sont trouvés tous les ingrédients et les conditions de la vie. On sait par ailleurs maintenant, grâce à la sonde Rosetta Philae, qu’on peut trouver sur d’autres corps célestes (la comète Tchouri en l’occurrence) des briques élémentaires de la vie que sont les acides aminés.
Le chapitre suivant intitulé «La vie sur la planète bleue» nous conte l’évolution des connaissances sur l’apparition de la vie. On débute par les découvertes des précurseurs Linné, Lamarck et Darwin, et l’on va jusqu’aux dernières découvertes de la biologie.
Les transformations du monde vivant sur Terre sont ensuite étudiées depuis l'Hadéen jusqu’au Phanérozoïque. On y découvre la disparition de la vie vers moins deux milliards d’années, due à la pollution par l’oxygène, suivie d’une cinquantaine de vagues d’extinctions et de changements climatiques jusqu’aux Hominidés. Cette partie se termine par une revue des causes du nouveau changement climatique qui, contrairement aux précédents, n’est dû qu’à l’activité humaine.
La conclusion rappelle les grandes lignes de l’évolution du monde et se termine par un aspect positif : le progrès dû aux connaissances scientifiques, et un aspect négatif : l’inquiétude devant les défauts du comportement humain.
A la fin de l’ouvrage, un glossaire très complet permet de définir les nombreux mots scientifiques potentiellement peu ou mal connus des lecteurs.
Ce livre, qui nous conte l’état des connaissances scientifiques sur l’évolution du monde, depuis le Big Bang jusqu’aux problèmes des humains actuels, a vocation à être lu par tout un chacun, et les grandes lignes de son contenu devraient faire partie des connaissances de base de l’ensemble de la population. Cela participerait à la limitation de l’obscurantisme ambiant de plus en plus inquiétant qui sévit sur la planète.
Bertrand Piccard
(Pocket, 2023, 208 p. 7,70€)
On ne présente plus Bertrand Piccard, qui a réalisé deux premières aéronautiques : le tour du monde en ballon sans escale (1999) et le tour monde en avion solaire avec escales (2016). Son grand-père, Auguste, explora la stratosphère. Son père, Jacques, parcourut les abysses ; il dénonça, avec le Club de Rome, la chimère d’une croissance mondiale sans limite (1972). Bertrand a hérité de la fibre écologique de ses parents. Le titre de son livre, publié il y a deux ans et réédité aujourd’hui en poche, résume bien son credo environnementaliste : Réaliste. Soyons logiques autant qu’écologiques.
Les scientifiques nous alertent depuis les années quatre-vingt sur le changement climatique, mais aussi sur la pollution de l’air, de l’eau, des sols, des aliments. L’auteur n’est pas tendre pour ceux qui ne veulent pas entendre : «Aujourd’hui, l’ignorance s’apparente plutôt à de la bêtise».
Bertrand Piccard est favorable à la décroissance, mais il sait que la population n’adhèrera pas à un tel objectif : les citoyens privilégient un modèle économique qui assure leur confort et les plus démunis veulent améliorer leur niveau de vie : «Cela a-t-il du sens de parler de fin du monde à ceux qui n’arrivent pas à boucler leurs fins de mois?».
D’où le choix par Piccard d’une «croissance qualitative» qui protège l’environnement tout en étant financièrement rentable et créatrice d’emplois. Il veut réconcilier écologie et économie. Exemple : le producteur d’électricité Engie investit chez ses clients pour réduire leur consommation et partage avec eux les gains réalisés. Autre exemple : Procter & Gamble invente une poudre de lessive pour laver à froid. La fondation Solar Impulse de Bertrand Piccard a ainsi identifié et certifié 1500 solutions rentables et innovantes pour améliorer l’environnement dans les domaines de l’eau, l’énergie, la mobilité, les constructions, l’industrie, l’agriculture. Elles sont toutes décrites sur le site www.solarimpulse.com, impressionnant catalogue qui montre la vitalité des acteurs du domaine et l’extrême diversité des solutions. L’auteur se livre à quelques exercices de prospective et nous décrit la situation dans chaque domaine où ces solutions seront implémentées.
Piccard pourfend les écologistes intégristes qui refusent tout compromis. «Le fanatisme de certains amoureux de la Nature ralentit autant la protection de l’environnement que l’égoïsme des nouveaux libéraux», écrit-il. Et il déclare à un intégriste vert : «Vous essayez d’arriver à tout avec le grand risque de n’arriver à rien. Moi, j’essaie peut-être de n’atteindre que la moitié, mais je pense y parvenir». Tout le pragmatisme de Piccard est résumé là.
Pour sortir de la paralysie actuelle et mobiliser la population, il faut parler plus de pollution et pas seulement de réchauffement climatique. La pollution de l’air par les particules, de l’eau, du sol et des aliments par les engrais et les pesticides tue neuf millions de personnes par an dans le monde. Ce n’est pas la planète qu’il faut sauver, c’est nous! Voilà une cause plus mobilisatrice que le climat. «Qui sera d’accord pour renoncer maintenant à sa voiture afin d’éviter que le pôle Sud fonde d’ici trente ans?», demande l’auteur. Heureuse coïncidence : pour purifier l’air, on doit réduire les énergies fossiles et donc les émissions de CO2 et donc le réchauffement climatique!
Le rôle des Etats est primordial. Les normes environnementales doivent être durcies. L’auteur rappelle l’épisode des pots catalytiques imposés avec succès par l’Etat, en dépit des fortes pressions de l’industrie automobile, pour le plus grand bien de nos poumons.
Le CO2 doit être taxé pour tenir compte de son effet néfaste sur le climat mais le montant total des taxes ainsi perçues doit être redistribué également parmi tous les citoyens. Un système qui rend la mesure acceptable et récompense la sobriété carbone.
Dans son enthousiasme, l’auteur oublie parfois d’exposer les inconvénients de ses solutions. Ainsi, le scénario 100% renouvelable en 2050, qu’il préconise pour la production d’électricité, entraîne des «paris technologiques lourds» selon le RTE [1]. De même, l’acceptation par les riverains des grands parcs éoliens et solaires ainsi que des bassins de stockage hydraulique est loin d’être acquise.
On peut aussi regretter que l’auteur n’aborde pas le sujet de la surpopulation, une variable essentielle dans l’équation environnementale, de son propre avis.
Malgré ces quelques réserves, il reste que ce livre est rafraîchissant : son approche pragmatique, respectueuse de l’individu, originale, optimiste, tournée vers l’action concrète est une bouffée d’oxygène dans le monde de l’écologie.
Mike Goldsmith
(EDP Sciences, 2023, 168 p. 12€)
Observons une «ola» dans un stade : chaque participant se lève juste après son voisin ; ses seuls mouvements sont verticaux, mais l’ensemble montre une vague, qui se déplace latéralement dans les tribunes. C’est l’essence d’une onde. De la même façon, observons la mer, loin du rivage : la crête de la vague avance, mais le ballon qui flotte ne bouge que de haut en bas. Ecoutons le son d’une cloche lointaine : le son nous parvient, et pourtant l’air qui le transporte reste immobile. Les ondes sont des entités fascinantes et omniprésentes. Mike Goldsmith, astrophysicien et acousticien, nous présente ce monde captivant dans un petit livre de quelque 150 pages.
Les ondes les plus faciles à observer sont les vagues de la mer : elles naissent de petites perturbations créées par le vent, qui se transmettent de proche en proche et peuvent voyager des milliers de kilomètres durant des semaines. L’eau ne suit pas le mouvement. Seule l’onde se déplace. L’auteur explique les schémas complexes d’interférences entre les vagues de vitesses différentes.
Il décrit les types de vagues, leurs formes selon une courbe mathématique appelée «trochoïde», les tsunamis et les marées, qui sont aussi des ondes.
Les ondes sonores résultent de petites variations de pression de l’air, ou de toute autre substance, qui se propagent de proche en proche. La hauteur du son, plus ou moins aigu, capté par notre oreille, correspond à la fréquence de ces variations (entre 20 et 20 000 par seconde ou hertz). Notre système auditif est incroyablement performant. On peut percevoir 5000 hauteurs de sons distinctes (et seulement 128 couleurs). On peut détecter un son infime qui déplace notre tympan d’un diamètre d’atome ! Les multiples ondes sonores qui nous atteignent simultanément ne se mélangent pas et on peut les identifier individuellement.
Un fait intrigant : bien qu’inaudibles, les infrasons produisent sur nous des effets émotionnels, attestés expérimentalement, mais inexpliqués.
L’auteur explique les effets du déplacement de la source sonore tels que l’effet Doppler, mais aussi le claquement d’un fouet, qui n’est autre qu’un bang supersonique !
La Terre est secouée par les ondes. Un glissement soudain de plaques tectoniques à 700 km sous terre déclenche des trains d’ondes destructrices dans les couches élastiques du manteau terrestre, provoquant un tremblement de terre. On scrute les ondes sismiques pour surveiller, mais aussi cartographier, notre sous-sol.
L’être humain n’échappe pas aux ondes. Le cerveau émet des ondes cérébrales de quelques hertz (similaires à celles de la pieuvre !). Le cœur contient un oscillateur naturel. Le tube digestif est agité par une ondulation qui se propage de la gorge au rectum, selon un rythme circadien. Nos jambes sont des pendules : la marche synchronisée sur leur fréquence de résonance est la plus efficace.
Les ondes électromagnétiques constituent le plat de résistance du livre. A partir de ses équations reliant les champs électrique et magnétique, Maxwell postule l’existence de ces ondes (1865). La lumière en fait partie ; avec son éther, une substance imaginée depuis des siècles comme support matériel de ses vibrations, Hertz produit en laboratoire une onde radio prédite par Maxwell (1886). En 1905, Einstein donne le coup de grâce à l’éther et affirme que les ondes électromagnétiques peuvent exister dans le vide, sans support matériel.
L’auteur expose les particularités de chacune de ces catégories d’ondes : radio, micro-ondes, infrarouge, lumière, ultraviolet, rayons X et rayons gamma.
Les travaux de Planck sur les quantas (1900), ceux d’Einstein sur l’effet photoélectrique (1905) et ceux de de Broglie sur les «ondes de matière» (1924) sonnent finalement le glas du modèle ondulatoire de Maxwell. Dans la réalité, ces ondes sont des flux de particules, les photons, régis par la mécanique quantique, que l’auteur nous présente brièvement. Le physicien américain Richard Feynman a pu rendre compte de tous les comportements de la matière et de l’énergie sans parler d’onde d’aucune sorte.
Le modèle ondulatoire doit être abandonné comme image de la réalité, mais il reste un outil de prédiction puissant et indispensable du comportement des ondes électromagnétiques.
Les ondes gravitationnelles sont les petites dernières de ce vaste panorama. Prédites par Einstein, elles ont été détectées à partir de 2016, au prix de véritables prouesses techniques. Elles permettront d’observer des évènements remontant jusqu’au Big Bang, car non sujettes à l’opacité du début de l’Univers (380 000 ans). Le projet LISA prévoit d’installer trois satellites détecteurs dans l’espace. Une nouvelle branche prometteuse de l’astronomie est ouverte.
Ce livre est très dense en informations et sa lecture demande une bonne concentration. Les explications sont claires et plus physiques que mathématiques. L’ouvrage est, de ce fait, ouvert à un large public.
Yves Agid
(Albin Michel, 2023, 208 p. 20,90€)
Yves Agid est professeur de neurologie émérite à l’université Pierre et Marie Curie et a joué un rôle très important pour la création de l’Institut du cerveau à Paris, centre de recherche d’excellence localisé à l’hôpital de la Salpêtrière.
Dans cet essai, il se livre à une réflexion sur la découverte et propose une démarche en trois étapes : (1) une analyse des étapes successives d’une découverte ; (2) l’identification des principaux déterminants requis pour faire une découverte, accompagnée de la description des principaux profils types de «découvreurs» ; (3) et enfin la nature des circuits de neurones cérébraux qui sont mis en jeu pour faire une découverte. Le but qu’il se fixe est de reconnaître les mécanismes qui peuvent conduire à faire une découverte.
Il est bien conscient du caractère ambitieux de son propos mais il se donne une certaine légitimité car, dit-il, «même si je n’ai jamais fait de grandes découvertes, j’aime les chercheurs comme j’aime la science». Et il met au service de cette ambition une démarche associée à une écriture simples qui rendent la lecture de ce livre et sa compréhension faciles.
La première partie s’intitule «Faire une découverte, comment ?». Partant du principe que découvrir, «c’est ce qui était inconnu ou caché», il reprend la description des quatre phases cognitives du processus de découverte élaborée par Graham Wallas : préparation, incubation, illumination, vérification : «Je m’étonne ; je me questionne, ce qui peut me donner des idées ; je cherche, la réponse me survient sous la forme d’une illumination ; je vérifie.»
Yves Agid cite en exemple la découverte fortuite des «neurones miroirs» qui jouent un rôle dans la représentation de ce que fait un partenaire, comme si ces neurones permettaient d’inférer ce qui se passe dans le cerveau de l’autre, par exemple dans le phénomène d’empathie.
L’idée qui mène à la découverte le plus souvent ne vient pas par hasard (ce qui serait exceptionnel) mais d’un raisonnement logique, parfois même à partir d’une idée fausse ! En fait, la recherche est une construction laborieuse, consciente et subconsciente, mais rarement une découverte se fait en toute conscience, bien qu’il n’y ait pas de consensus sur la signification du mot conscience. Aujourd’hui, même un génie ne fait plus une découverte tout seul, les découvertes ne peuvent plus être que collectives et ubiquitaires.
La deuxième partie s’intitule «Qu’est-ce qui conduit à faire une découverte ?». La science, en permettant la création d’un cercle vertueux, fait progresser la société, qui fait progresser la science. Généralement, les grandes découvertes suivent toujours ou presque une rupture technologique. En neurobiologie, par exemple, les grandes évolutions scientifiques ont toutes été dépendantes des progrès en amont des physiciens et des chimistes par la mise au point de nouvelles technologies qui ont permis à chaque fois de franchir un grand pas dans la compréhension d’un processus, comme par exemple la découverte de l’imagerie par résonnance magnétique fonctionnelle, qui réalise l’étude du fonctionnement du cerveau d’un sujet in vivo en temps réel et qui a permis le développement de l’exploration du cerveau. Qui sont donc les «bons» scientifiques, et parmi eux les «bons» découvreurs ? Pour répondre à cette question, Yves Agid cherche à décrire quelle est la personnalité du découvreur et pour cela propose quatorze exemples de personnalités de chercheurs, depuis le «théoricien visionnaire» jusqu’au «chercheur fou inutile» !
Dans la troisième partie, «Les déterminants de la découverte», Yves Agid cherche à interpréter ses hypothèses en s’appuyant sur les éléments de la neurobiologie, tels que les neurones modulateurs cérébraux de ce qu’il appelle l’élan vital, ensemble de facultés mentales qui nous poussent à agir et assurent notre survie ; ou bien les différentes connexions neuronales dans le cerveau. Et bien sûr, il cite l’importance de l’irruption de l’informatique et de l’intelligence artificielle en faisant référence au développement des réseaux de neurones formels, outils mathématiques dont le fonctionnement s’inspire directement du fonctionnement physiologique des neurones. Par exemple, il cite le programme de Google, AlphaZero, en 2017, qui a battu le champion du monde des échecs (28 victoires, 72 parties nulles). Parmi les qualités requises pour faire une découverte, il cite la mémoire et l’imagination, tout en se posant la question de savoir de qui passe dans le cerveau quand on imagine. Et, «in fine, écrit-il, le cortex frontal est l’épicentre de la découverte» car «il joue un rôle dans la conceptualisation de tous les comportements».
Enfin, dans sa conclusion, Yves Agid trace les chemins de la découverte en cherchant à identifier qui est le futur découvreur et en soulignant le fait que faire des découvertes, cela s’apprend, mais c’est surtout un travail collectif.
Ce livre s’adresse donc à un large public, qui sera intéressé par le monde de la recherche et des chercheurs, même si son contenu ne porte pas trop sur le cerveau «comme machine à inventer» comme l’annonce le titre, mais plutôt sur les chemins de la découverte.