Transhumanisme, la technologie à quatre pattes

dîner networking du 05 octobre consacré au Transhumanisme où nous aurons le plaisir d’accueillir Madame Béatrice Jousset-Couturier, je vous propose quelques précisions sur ce thème très présent dans l’actualité. Je ne sais si il reste beaucoup de places pour le dîner mais n’hésitez pas à nous rejoindre : le débat promet d’être passionnant !

Jacques Baudron  -  septembre 2017  

La médecine guérit, le transhumanisme augmente les capacités de l’homme. Une paire de lunettes corrige une vision défaillante et des implants rétiniens offrent une vision de lynx. De quoi devenir beau, intelligent et surhomme à bon compte.

Espérance de vie et longévité
Espérance de vie n’est pas longévité. Grâce au recul de la mortalité infantile, l’espérance de vie est passée de quarante-cinq ans en 1850 à quatre-vingt en 2017 alors que l’âge des doyens de l’humanité depuis 1955 stagne avec 113,6 ans en valeur moyenne. C’est ce que nous apprennent les travaux du Gerontology Research Group. Le chercheur Xiao Dong, quant à lui fixe une valeur limite de 115 ans dans son étude « Evidence for a limit to human lifespan ». Du haut de ses 122 ans, l’exception Jeanne Calment toise les postulants au titre de doyenne des doyens.
Atteindre des âges avancés n’est pas chose nouvelle. Démocrite, Sophocle, Diogène, Platon, le peintre Bacon, Newton, Kant, Fontenelle, Voltaire, ont tous acquis le statut de plus qu’octogénaire voire quasi-centenaire pour certains. N’oublions pas ma préférée, Aliénor d’Aquitaine. Sa vie fut un roman plein de rebondissements. Reine de France puis d’Angleterre, mais avec suffisamment d’énergie à plus de quatre-vingt ans dont quinze passés en prison pour aller depuis l’abbaye de Fontevraud jusqu’en Castille et ramener sa petite fille Blanche en Normandie afin qu’elle convole avec le futur Louis VIII. Belle vitalité ! 
L’hygiène et la médecine ont augmenté l’espérance de vie, les NBIC auront-ils le même bonheur avec la longévité ?

Vaste concept ! Quatre domaines technologiques nous ouvrent la voie vers ces ambitions : nanotechnologie, biotechnologies, informatique, sciences cognitives, autrement dit les « NBIC ».  Avec de telles armes, le vieillissement et la mort deviennent les cibles explicites sans laisser pour compte l’augmentation des capacités physiques ou intellectuelles. Les occidentaux Gafam et autres extrêmes orientaux Batx (Baidu, Alibaba, Tencent et Xiaomi) s’impliquent dans ces recherches avec beaucoup de conviction, comprenez de dollars. La tête qui dépasse pour l’animation de ce mouvement est Ray Kurzweil, génie à l’origine de la reconnaissance de caractères et directeur de l’Ingénierie chez Google. Le prestige est certes moindre quand on précise que Google compte cinq cents directeurs de l’Ingénierie.

Cela dit, il est sage de rester vigilant face aux annonces spectaculaires de la presse et des réseaux sociaux. Mon critère premier pour différencier ces affiches trop prometteuses est la réalité des technologies dont elles relèvent. C’est ainsi que je crois, non, que je crains les possibilités de modifier les gènes, que je redoute les drones guerriers dotés d’autonomie, que je me réjouis de la conduite autonome mais que je professe un scepticisme serein face à la sauvegarde du cerveau sur support électronique, à la perspective d’une intelligence artificielle qui serait capable de se mesurer à l’intelligence humaine ou à la mort de la mort. 
L’homme est doté d’une remarquable capacité à s’adapter ; l’humain transformé par la technologie, ce n’est pas nouveau. 

La technologie transforme l’homme

Alors que l’erectus ne se doutait pas qu’un jour il serait sapiens, un certain raffinement lui a incidemment permis d’apprécier les aliments cuits. C’était il y a un million d’années. Anodin ? Pas tant que ça : l’assimilation plus facile a façonné un système digestif moins énergivore, les ressources ainsi épargnées profitant au développement du cerveau. Une technologie, le feu, source d’améliorations d’un organe, le cerveau : nous sommes en plein transhumanisme.
Plus gênant : la calculatrice. Certes nulle étude scientifique n’est là pour appuyer mes dires, mais il me semble assister depuis l’apparition de la calculatrice à la régression de nos capacités à estimer un résultat a priori. Alors que la règle à calcul précisait les décimales d’un nombre dont nous devions au préalable évaluer l’ordre de grandeur, la calculatrice délivre profusion de chiffres significatifs alors que l’unité même est incertaine. Faites le test autour de vous : quel est le bilan d’un accroissement de 50% suivi d’une baisse de 33% ? Une réponse à 17% est tentante mais ajouter la moitié avant d’en retrancher le tiers nous ramène bel et bien à la valeur de départ.  
Enfonçons le clou : gare aux GPS ! On relève chez les chauffeurs de taxi londoniens une altération d’une zone du cerveau dédiée à l’orientation dans l’hippocampe. Relativisons : cette même zone s’était fortement développée à l’époque où ce même chauffeur devait par lui-même trouver sa route. 
La capacité qu’ont les êtres vivants en général et les humains en particulier de s’adapter à l’environnement est remarquable. N’y a-t-il pas risque que l’homme s’en remette à l’autorité de la machine dans ses prises de décisions ? Quelles seront les conséquences de l’apparition des appendices plus ou moins intelligents à qui nous déléguons nos contacts avec l’environnement physique ? Regard optimiste : le cerveau se libère de tâches « subalternes » pour se consacrer à « autre » chose. Vision pessimiste : l’homme se fragilise en diminuant ses capacités de perception …
Le débat n’est pas nouveau, l’écriture en fut déjà l’objet. Le dialogue entre Theuth le dieu créateur de l’écriture et Thamous le roi des égyptiens imaginé par Platon est révélateur : à Theuth qui argumente que le défaut de mémoire et le manque de science ont trouvé leur remède Thamous répond qu’en dispensant l’homme d’exercer leur mémoire on produira l’oubli. A qui donner raison ? L’usage nous enseigne que lecture comme écriture sollicitent la mémoire sur le plan visuel et probablement sur celui de la compréhension. Mais on ne sait pas ce qu’il est advenu des capacités de mémorisation qui étaient propres à la tradition orale. J’imagine que le cerveau s’est adapté et que des capacités ont disparues ?
La technologie façonne le cerveau. De quels outils dispose le transhumanisme ?

Les quatre pattes du transhumanisme

Quoique datant de soixante-dix ans, le transhumanisme est aujourd’hui défini notamment en Gafaland comme l’augmentation des performances humaines par l’intégration de technologies provenant de quatre domaines, les NBIC pour Nanotechnologie, Biotechnologie, Informatique et sciences Cognitives. Les NBIC ont été introduites en juin 2002 dans un rapport de la National Science Foundation qui précise la convergence des quatre domaines. On y retrouve des capteurs physiques, des robots pas plus gros qu’une molécule naviguant dans le corps humain, des interfaces permettant de communiquer par la pensée et un système d’interconnexion des cerveaux.
Les deux premières technologies (Nanotechnologie et Biotechnologie) semblent dotées d’une assise solide. Les avancées dans ces deux domaines sont réelles Saluons au passage la performance de CRISPR, enzymes-ciseaux pour ADN issus des travaux de l’équipe d’Emmanuelle Charpentier qui ouvre la voie à la modification des génomes.
Les deux dernières (Informatique et Sciences Cognitives) laissent plus de place au doute. C’est ainsi que si la perspective de modification des gènes ou de drones tueurs autonomes sont aujourd’hui à portée de technologie, les tonitruantes annonces de sauvegarde du cerveau ou de vie éternelle ne s’appuient sur aucune réalité. Dans le cadre de cet article, nous concentrerons nos réflexions à un seul volet du chapitre « Informatique » : l’Intelligence Artificielle. Ce volet a une place prépondérante dans les débats aujourd’hui.
 

Intelligence Artificielle 

L’IA est un discipline mathématique qui vise à faire reproduire par la machine des tâches réclamant des processus mentaux de haut niveau chez l’homme. Le transhumanisme attend beaucoup de l’IA. Dans sa quête à la vie éternelle, le corps sera maintenu en remplaçant les éléments défectueux par des pièces issues d’imprimantes 3D et en éradiquant les maladies par manipulation génétique. Et la tête ? Un rapide calcul permet d’en évaluer la complexité en Mflops et de déterminer la puissance équivalente d’un ordinateur. Même opération pour la taille mémoire. Le cerveau étant maintenant appréhendé comme un ordinateur similaire à tout autre, des opérations telles que la sauvegarde ou la connexion directe au très saint cloud deviennent implicites. « The brain happens to be a meat machine » que l’on peut traduire par « Le cerveau n’est qu’un ordinateur fait de viande » nous explique Marvin Minsky à l’origine du groupe d’Intelligence Artificielle du MIT avec John McCarthy. Complétons le tableau avec les impressionnants et réels résultats de l’Intelligence Artificielle dont la progression est censée suivre la courbe observée depuis les années ’50, la « loi de Moore », pour dépasser ensuite l’Intelligence Humaine. 
Rappelons qu’en physique une loi fait référence à l’observation d’un phénomène immuable. En l’occurence le côté « immuable » demanderait à être étayé. Sémantiquement le terme « conjecture de Moore » serait plus approprié. Une croissance rapide ne présume rien pour le futur, ce que Yann Lecun formule bien mieux que moi : « Il n’y a rien qui ressemble plus à une exponentielle que le début d’une sigmoïde ». La sigmoïde est une courbe mathématique qui présente une croissance exponentielle pour relier un plateau de départ à un plateau haut.
 
La loi de Gordon Moore sur un plateau ?
 
1964 : Gordon Moore, à l’origine d’Intel,  constate que le rapport entre la complexité et le coût des semi-conducteurs double tous les ans depuis 1959 et augure de la durabilité du phénomène. 
L’engouement a commué le postulat en axiome sous le nom de « Loi de Moore ». Les transhumanistes l’ont érigé en loi de la nature.  Deux exigences physiques en ont pourtant freiné la course depuis quinze ans : l’évacuation de l’énergie dès que la concentration en composants augmente et l’intrusion des phénomènes quantiques à ces échelles. La loi a atteint un plateau. La fréquence d’horloge a cessé d’augmenter en 2004. La multiplication des cœurs en pallie la limite, mais outre les impacts sur l’architecture logicielle, le bénéfice est tempéré car trop peu d’applications sont exécutées simultanément. 
L’arrivée de nouvelles technologies en 3D relance la croissance sans pour autant retrouver l’exponentielle des années 80. En outre, le cout industriel plus important sera-t-il compensé par une diffusion (IoT, automobile …) plus large ? Le plateau n’est pas plat.
L’informatique quantique se pose en relais mais avec deux sérieux écueils à surmonter : le procédé massivement parallèle atout premier de la technologie, ne profite qu’à des traitements spécifiques car contrairement à l’informatique classique, un processus unique est appliqué à toutes les variables ; par ailleurs la nécessaire cohabitation de plusieurs centaines de milliers de qubits est hors d’imagination aujourd’hui.
Qui pour donner un second souffle à la Loi de Moore ?
 
 
Pour tenter d’éclaircir un panorama prometteur mais confus, il faut faire la distinction entre deux Intelligences Artificielles. L’IA « faible » est un automate qui exécute ce qu’on lui a appris ; l’IA « forte » serait humaine car dotée de conscience. L’IA faible est-elle pour bientôt ? Elle est déjà là, l’usage en est quotidien et nous sommes loin d’en connaître toutes les facettes. L’IA forte est-elle pour  bientôt ? Assurément non, et on est pas prêt d’être près des prémices des prémisses. L’IA forte sera-t-elle fille de l’IA faible ? On n’en sait rien, puisqu’on ne sait pas par quel angle s’attaquer à l’IA forte. Notons que le statut d’automate de l’IA faible ne va pas dans le sens d’une telle filiation.
Une expérience de pensée rappelée par l’informaticienne-romancière Catherine Dufour me semble parfaite pour illustrer une différence de comportement entre IA faible et forte : demander à un robot de placer deux boules de billard l’une au-dessus de l’autre. Si le robot est de type IA faible, il va sans faiblir et indéfiniment tenter et retenter l’expérience. Si le robot est de type IA forte, il va raisonner comme un humain et au bout de quelques essais vous signifiera « Mission impossible ».
IA faible et IA forte sont de deux natures différentes. Laurent Alexandre, médecin-HEC-énarque-chef d’entreprise et héraut du transhumanisme qui s’affirme non-transhumaniste, proclame que former une intelligence artificielle se chiffre en secondes contre trente ans pour un ingénieur. C’est omettre que l’intelligence artificielle à laquelle il fait allusion est faible, autrement dit sans imagination alors que l’intelligence que l’on attend d’un ingénieur doit être forte : on lui demande de l’innovation.

  >  IA faible.

La spectaculaire révolution de l’Intelligence Artificielle faible ne doit pas occulter la fondamentale proximité de son architecture avec celle des ordinateurs classiques : une boîte noire contenant des instructions à dérouler pour les ordinateurs classiques et une boîte noire contenant la connaissance pour l’IA.

Dans les deux cas la machine ne sait pas offrir plus que ce qu’elle peut puiser dans sa boîte, elle peut extrapoler mais elle ne peut pas innover. Dans le cas de la victoire au jeu de Go, l’IA faible avec AlphaGo a effectivement proposé des « coups » gagnants qui n’avaient jamais été vus en cinq mille ans de jeu, mais l’algorithme d’apprentissage est allé chercher des ressources insoupçonnées dans l’incroyable nombre de configurations à explorer en travaillant par sondage avec l’algorithme dit de « Monte Carlo ». Il a essayé au hasard des positions en allant à chaque fois au terme de la partie et a retenu celles qui après plusieurs milliers d’itérations avaient gagné le plus souvent. Durant les parties contre Lee Sedol, champion en la matière, la seule question que se posait AlphaGo était : dans cette configuration quelle position présente la plus forte probabilité de victoire ? Et c’est ainsi qu’on l’a vu sortir de son chapeau des coups jusqu’alors inconnus menant au succès. Pour être complet, ajoutons que cette mécanique est également à l’origine de l’unique défaite d’AlphaGo sur les cinq parties jouées, ce qui relativise l’efficacité de la méthode.

Les connaissances acquises par la machine grâce à l’IA faible viennent de la technique de « programmation » par apprentissage et son génial et dernier avatar, le Deep Learning, n’a pu voir le jour que grâce à trois facteurs : l’inépuisable source d’images légendées fournie par les réseaux sociaux, la puissance de calcul délivrée par les cartes graphiques des consoles de jeu et l’opiniâtre clairvoyance de Yann Lecun, son papa.

Examinons le principe dans le cas de la reconnaissance d’un chat dans une image. L’idée est de présenter à la machine une énorme quantité d’images représentant un chat et de lui demander d’allumer une lumière si elle voit un chat. En cas de mauvaise réponse, la machine ajuste ses réglages internes afin de délivrer la réponse correcte. Au bout d’un moment, la machine ne se trompe plus y compris face à une image nouvelle. C’est de l’apprentissage. Le cœur de la machine est le « neurone artificiel », comparateur à seuil ajustable. Ces neurones sont regroupés en couche et le « learning » est qualifié de « deep » car une vingtaine de couches sont mises en œuvre.

Face à l’humain, l’IA faible est dotée d’une vertu essentielle : elle ne fatigue pas. Elle sait rester concentrée. Elle ne sait faire qu’une chose mais sans jamais s’en éloigner. L’avantage est décisif dans la conduite automobile où la perte d’attention est à l’origine de la majorité des accidents, dans la surveillance de multiples écrans de contrôle ou dans la scrutation d’une quantité considérable de radiographies à la recherche de nodules par exemple.

Les assistants tels que « Siri », sophistication de l’interface homme-machine, mettent en œuvre l’IA faible pour relever les mots clefs de questions posées en langage naturel, s’en servir comme entrées pour la base de données de réponses pré-formatées voire requêtes sur Internet et enfin délivrer le résultat à l’utilisateur en langage naturel. Des robots pourraient prendre la place de soldats dans les combats urbains, ce qui soulève des problèmes éthiques. Le tout suivi de moult points de suspension, car nous ne sommes limités que par l’imagination, tant pour dresser la liste des applications que sur le fait que l’IA faible en est incapable.

L’IA faible est là et va fondamentalement bouleverser notre quotidien.

> IA forte.

Nous côtoyons là un de nos cousins. La machine dotée d’IA forte est capable d’émotion. Vous pourrez lui présenter la « une » du Canard Enchaîné, et l’IA forte en saisira tout le sel, les sous-entendus, les calembours et autres allusions. L’IA forte aura de l’humour. L’IA forte sera capable de se reproduire. L’IA forte sera ange ou démon et elle dépassera l’homme. L’IA forte est l’objet de toutes les peurs et de tous les espoirs. Seule la science fiction nous permet d’en imaginer la teneur. Mais l’IA forte n’est pas là. Et il n’y a pas d’indice d’une arrivée prochaine.

Savez-vous comment marche une IA forte ? … moi non plus.

Pourtant, les tenants de l’IA forte et du transhumanisme ne connaissent pas ces doutes. Quelles bases technologiques ou économiques autorisent les adeptes de l’IA forte et du transhumanisme à être aussi affirmatifs ? Pour ma part, les trois que j’identifie ne sont guère convaincantes :

la conviction d'une croissance perpétuelle de la loi de Moore (" Aujourd'hui, on atteint 33 millions de milliards d'opérations par seconde. Ce sera 1.000 milliards de milliards en 2029"). Ray Kurzweil quant à lui, extropien gourou de la singularité technologique autrement dit pape du transhumanisme extrapole et fait de la loi de Moore un principe physique universel.
la confiance dans les acteurs charismatiques ("Ce projet [les implants intracérébraux] suscite de la moquerie de la part de beaucoup de neuroscientifiques, qui le jugent irréaliste mais ils oublient que Musk délivre toujours ce qu'il promet"
la fascination face aux moyens financiers engagés ("Pour le moment, rien de réel ne prouve que [parvenir à augmenter la longévité humaine] est possible pour l'homme, même si ça l'est pour les souris, mais Google a déjà investi des centaines de millions de dollars dans le projet" )
On ne sait pas aujourd’hui faire de L’Intelligence Artificielle forte. Soyons plus précis : on ne sait pas comment on pourrait le faire. Je reste très serein face à l’IA forte. Non pas parce ce que j’écarte l’idée de son avènement, je ne vois pas ce qui ferait obstacle. Mais l’état de nos connaissances ne nous permet pas même d’en appréhender la difficulté. Nous ne savons pas encore comment prendre le problème. Nous avons créé des neurones artificiels ; il serait plus opportun de parler de « comparateur à seuil », mais ça fait moins rêver. Nous sommes capables de décrire le cerveau en terme de nombre de connexions, de nombre de neurones, de localisation de zones excitées mais nous ne savons pas comment « ça » marche. L’ADN est séquencé à prix abordables, l’éditeur de génomes est à portée de main mais pour spectaculaires que sont ces résultats les briques apprivoisées restent du domaine de la chimie. Nous savons lire les éléments de base, mais n’avons aucune idée du fonctionnement global. Nous n’abordons pas encore le vivant et les secrets de son fonctionnement. L’approche est syntaxique, il la faudrait sémantique. Un jour, peut-être ?
 
Syntaxe et sémantique
L’IA forte comprend le sens d’un texte là où l’IA faible ne fait que reconnaître des mots. 
L’IA forte sait relever les ambiguïtés du langage. Prenons les deux propositions suivantes qui expriment la même idée :
« La boîte ne peut pas entrer dans la valise parce qu’elle est trop grosse » 
« La boîte ne peut pas entrer dans la valise parce qu’elle est trop petite »
L’IA forte saura préciser si le pronom « elle » fait référence à la boîte ou à la valise.
Autre cas : 
« Paul n’est pas dans la classe de Pierre parce qu’il est plus âgé ». 
Qui de Paul ou Pierre est l’ainé ? L’IA forte n’en sait pas plus que nous bien entendu, mais elle sait lever un drapeau d’alerte. 
De leur côté, les algorithmes d’IA faible, nourris par les documents officiels multi-langues, fonctionnent avec des dictionnaires de mots et de groupes de mots sans aucune notion du contenu. C’est ainsi que :
 « Il a sauté un repas » donne « He skipped a meal »
Mais :
« Il a sauté, encore, un repas » devient «  He jumped, again, a meal ». 
L’IA faible est syntaxique, l’IA forte est sémantique.
 
 
Il n’y a aucune raison pour réfuter l’idée qu’un jour on saura créer la conscience, mais comment ne pas être sceptique quand des dates sont avancées alors que rien de concret ne vient l’étayer.

En bref …

Quel bilan tirer de ces considérations ?
L’adaptation du corps humain y compris son cerveau à toutes les nouvelles technologies semble être une constante (et probablement un point fort) de l’homme. Si les perspectives offertes par les micro-robots et autres éditeurs de génomes sont bien là, si l’Intelligence Artificielle faible dénuée de conscience être prête à nous épauler voire à nous remplacer dans notre vie et notre métier quotidiens, on ne peut en dire autant de l’Intelligence Artificielle forte douée de conscience. Le pré-acquis est la compréhension de ce qu’est la conscience dans notre cerveau.
La démarche qui consiste à partir des technologies où nous nous sentons « confortables » à savoir physique, chimie, électronique, informatique pour évaluer le cerveau en termes d’équivalent flops, nombre de bits, taille mémoire, pour faire un parallèle entre le maillage d’interconnexion de dizaine de milliards de neurones et le réseau Internet n’est pas forcément la mieux placée pour  appréhender ce qu’est la conscience. 
Le transhumanisme a ou aura les moyens d’améliorer la santé et les performances de l’homme voire de modifier son patrimoine génétique. Mais peu d’indices permettent de penser que l’on pourrait sauvegarder le cerveau ou créer une intelligence dotée d’humour, une intelligence capable de se reproduire, une intelligence qui nous menacerait. Je reste serein.
 

< Revenir à la newsletter

Auteur: 
Jacques Baudron - Secrétaire adjoint Forum ATENA. - jacques.baudron@ixtel.fr

Ajouter un commentaire

Full HTML

  • Les adresses de pages web et de courriels sont transformées en liens automatiquement.
  • Vous pouvez utiliser du code PHP. Vous devrez inclure les tags <?php ?>.
  • Les lignes et les paragraphes vont à la ligne automatiquement.

Filtered HTML

  • Les adresses de pages web et de courriels sont transformées en liens automatiquement.
  • Tags HTML autorisés : <a> <em> <strong> <cite> <blockquote> <code> <ul> <ol> <li> <dl> <dt> <dd>
  • Les lignes et les paragraphes vont à la ligne automatiquement.

Plain text

  • Aucune balise HTML autorisée.
  • Les adresses de pages web et de courriels sont transformées en liens automatiquement.
  • Les lignes et les paragraphes vont à la ligne automatiquement.