Intelligence artificielle et innovation : c’est possible ?

Mes convictions ont été mises à mal lors de la confrontation entre AlphaGo et Lee Sedol. Précisions : AlphaGo est le logiciel de jeu de Go développé par DeepMind du groupe Google et le Sud Coréen Lee Sedol compte parmi les plus grands champions de jeu de Go. Sur les cinq parties du tournoi, AlphaGo en a gagné quatre.

A priori rien de spectaculaire. Garry Kasparov a vécu cette situation aux échecs face à Deep Blue il y a bientôt vingt ans. Le délai nous paraît raisonnable pour venir à bout de cet étrange jeu de Go venu de régions si lointaines et de temps si reculés.

Mais là où la situation interpelle c’est quand on voit qu’AlphaGo a désarçonné notre champion en appliquant par deux fois des coups que quatre mille ans de pratique avaient définitivement bannis du catalogue des bons joueurs. Or les mécanismes sur lesquels est construit AlphaGo relèvent de l’apprentissage. La machine ne devrait être capable que de répéter des coups qu’elle a appris et jamais ces positions n’avaient été utilisées. L’innovation n’est pas dans les gènes. Alors par quel prodige la machine a-t-elle pu inventer ? Comment AlphaGo a-t-il pu sortir de son chapeau des coups qu’il n’avait pas appris auparavant ?

Intelligence forte et faible

Nous touchons là ce que les spécialistes nomment le point de singularité. C’est la frontière entre l’Intelligence Artificielle faible et l’Intelligence Artificielle forte. La première est dans le monde de la robotique et se cantonne à répéter ce qu’elle a appris – et elle y fait des prodiges ! - alors que la deuxième touche à l’imagination, à l’extrapolation à l’émotion bref de l’IA Sapiens Sapiens. La première est aujourd’hui à notre service, les travaux d’avancement sur la deuxième sont me semble-t-il au même stade qu’aux débuts de l’informatique.

Ray Kurzweil nous le prédit : en 2029 les ordinateurs auront une intelligence émotive et en 2045, l’homme pourra numériser les informations de son cerveau. Ray Kurzweil n’est pas n’importe qui. Inventeur insatiable il a entre autres construit les bases de la reconnaissance de caractères avant de devenir futurologue et depuis 2012 directeur de l’ingénierie chez Google. Dans son sillage de grands noms – Hawking, Gates, Musk – s’alarment des possibilités de l’Intelligence Artificielle forte qui pourrait prendre son autonomie.

Cela dit, penchons-nous  plus près sur la situation. Dans le cadre de l’intelligence Artificielle faible, une nouvelle moisson d’avancées technologiques et algorithmiques a permis des avancées spectaculaires en reconnaissance d’images ou en conduite autonome. Comme souvent les premières applications de l’avancée technologique se précipitent sur l’amélioration de processus existants et ce n’est que dans une deuxième phase qu’elles innovent. Gageons que nous ne sommes pas au bout des surprises que nous apportera l’Intelligence Artificielle faible.

Au niveau du matériel, ces progrès doivent beaucoup à la loi de Moore, même si celle si s’essouffle depuis 2004. On a pu multiplier des éléments de base joliment nommés « neurones artificiels » et atteindre une capacité d’apprentissage redoutable. Au niveau algorithmes, on a pu s’appuyer sur des travaux comme ceux réalisés par le français Yan LeCun depuis maintenant vingt ans. L’apprentissage profond (Deep Learning), base de l’Intelligence Artificielle s’est nourri de toutes les connaissances que le Big Data met à sa disposition. Merci les banques d’images !

Côté Intelligence Artificielle forte, c’est à dire capable d’émotion d’humour d’innovation la recherche présente toujours un encéphalogramme plat. On ne sait toujours pas réellement par où aborder la question. On suppose que la conscience est déjà présente dans les neurones du cerveau, ce qui souligne encore l’écart entre neurones artificiels,  simple fonction non linéaire à seuil comme le rappelle Jean-Claude Heudin du Pôle universitaire Léonard de Vinci, et neurones physiologiques, éléments difficilement dissociables du corps humain. Il y a encore du boulot.

Mais les craintes que l’on a pu voir quant à l’imminence annoncée l’Intelligence Artificielle forte me semblent avant tout découler d’un prolongement artificiel de la loi de Moore qui nous doterait à court terme d’une puissance de calcul supérieure au cerveau. Et deux choses me dérangent dans le propos : la loi de Moore n’est plus valide et la puissance de calcul sans les algorithmes idoines n’apporte pas beaucoup. Un matériel puissant reste faible sans un logiciel à la hauteur.

J’aime beaucoup l’image de la fonction d’élagage du cerveau humain. Prenons la consigne « faire tenir deux boules de billard l’une sur l’autre ». L’humain va dire « pas possible » et passer son chemin. La machine va consommer sa formidable puissance de calcul à accumuler des tentatives infructueuses et ne s’arrêtera que sur un Ctrl Alt Del bien placé.

Une Intelligence Artificielle forte sera effectivement redoutable, mais on n’en a pas les prémices d’une prémisse. On ne sait pas par quel bout prendre le problème. La question n’est pas encore « quand ? » mais plutôt « est-ce du domaine de l’envisageable ? ». Je ne partage pas les inquiétudes relayées par Kurzwell, Hawking, Musk et Gate. Notons qu’Hawking dans ses propos fait référence à une Intelligence Artificielle « complète », ce qui modère ses propos.

Jeu de Go à Monte Carlo

Revenons au jeu de Go, que je n’ai pour ma part jamais pratiqué. Le terrain de jeu baptisé Goban est un quadrillage carré de dix-neuf lignes. Chaque joueur dispose de jetons - des pierres en langage Go - noirs pour l’un blancs pour l’autre. À tour de rôle chaque joueur pose ses pierres sur le Goban dans le but d’encercler des pierres ennemies. Les règles sont simples mais deux points lui donnent une complexité que n’avait pas les échecs : à chaque tour on a le choix aux échecs entre une vingtaine voire trentaine de possibilités contre deux ou trois cents au jeu de Go et l’évaluation des positions aux échecs peut s’appuyer sur le poids des différentes pièces alors que les pierres du jeu de Go sont désespérément similaires.

Penchons-nous sur l’algorithme au cœur d’AlphaGo. Il travaille sur trois volets. Un apprentissage au cours duquel il a méthodiquement enregistré toutes les parties jouées par les experts champions, un apprentissage renforcé où il a joué contre lui même tout comme le joueur d’échec de Stefan Zweig et enfin l’application dite de Monte-Carlo.

Les nouveautés technologiques dont la hype « deep learning » sont très présentes. Mais nous restons là dans le domaine de la recopie et l’innovation n’est pas au programme. Nous n’avons point là l’origine du coup venu d’ailleurs.

Reste Monte-Carlo. C’est une méthode mise au point en 2006 par Rémi Coulom, elle même fille d’une astuce élaborée en 1946 par Nicholas Metropolis. L’idée est simple : quand le champ des combinaisons est trop large on fait comme les instituts de sondage qui sélectionnent un panel d’éléments pris au hasard. L’arborescence des combinaisons relève bien du domaine du très gros car je me suis laissé dire que son ampleur est comparable au nombre d’atomes dans l’univers. Je ne sais pas, je n’ai jamais pu compter ça bouge tout le temps. Mécaniquement on prend un point de départ, au hasard, puis on déroule la partie jusqu’à la fin. On répète l’opération des dizaines de milliers de fois pour en extraire des statistiques de succès et pouvoir faire une évaluation de chaque position.

Le voilà, le coupable. C’est ce hasard introduit par Monte-Carlo. C’est ainsi que des positions qui depuis quatre mille ans étaient étiquetées « erreur de débutant » se sont révélées gagnantes à la grande surprise des joueurs chevronnés. Notons au passage que cette même méthode est à l’origine du seul échec sur les cinq parties enregistré par AlphaGo. Une position avait été classée peu probable par l’algorithme et Lee Sedol a pris la machine par surprise.

Il est donc possible d’avoir un zest d’innovation avec l’Intelligence Artificielle faible. Il suffit d’y introduire un aléa. Dans le fond nous rejoignons le sel qui a permis l’évolution des espèces. La seule chose est qu’il faut se doter de beaucoup de patience et ne pas compter sur un résultat précis : c’est le hasard qui dicte sa loi !

Forum ATENA a le plaisir de vous annoncer la parution prochaine d’un livre blanc pour exposer les principes de l’Intelligence Artificielle. La Newsletter s’en fera l’écho.

 

 

 


< Revenir à la newsletter

Auteur: 
Jacques Baudron - Forum ATENA - jacques.baudron @ ixtel.fr

Ajouter un commentaire

Full HTML

  • Les adresses de pages web et de courriels sont transformées en liens automatiquement.
  • Vous pouvez utiliser du code PHP. Vous devrez inclure les tags <?php ?>.
  • Les lignes et les paragraphes vont à la ligne automatiquement.

Filtered HTML

  • Les adresses de pages web et de courriels sont transformées en liens automatiquement.
  • Tags HTML autorisés : <a> <em> <strong> <cite> <blockquote> <code> <ul> <ol> <li> <dl> <dt> <dd>
  • Les lignes et les paragraphes vont à la ligne automatiquement.

Plain text

  • Aucune balise HTML autorisée.
  • Les adresses de pages web et de courriels sont transformées en liens automatiquement.
  • Les lignes et les paragraphes vont à la ligne automatiquement.