Plus complexe à modéliser que les échecs, le go était le dernier jeu de plateau où l’homme battait la machine.
C’est une nouvelle frontière de franchie pour l’intelligence artificielle : vingt ans presque jour pour jour après le premier match entre l’ordinateur Deep Blue d’IBM et le champion du monde d’échecs Garry Kasparov (lire ci-dessous), le groupe américain Google vient d’annoncer qu’un système conçu par une de ses filiales, DeepMind, avait réussi à battre un joueur professionnel de go. L’exploit, réalisé dans le plus grand secret au mois d’octobre 2015, fait la une du dernier numéro de la revue « Nature », publié ce jeudi. Lors de la rencontre, le système d’intelligence artificielle conçu par DeepMind, baptisé AlphaGo, a battu par cinq victoires à zéro un professionnel de 35 ans, Fan Hui, considéré comme le meilleur joueur de go d’Europe.
Acquise par Google en 2014, la start-up britannique DeepMind, fondée trois ans auparavant, s’est spécialisée dans les techniques d’apprentissage automatique (« deep learning ») et les réseaux de neurones artificiels (« neural networks »). Ces algorithmes s’inspirent du fonctionnement du cerveau humain pour résoudre des problèmes sans apprentissage préalable. A la pointe de la recherche en informatique, ils ont déjà permis des avancées majeures dans la reconnaissance automatique d’images ou de la parole.
« Space Invaders »
Il y a tout juste un an, l’entreprise (rebaptisée Google DeepMind après le rachat) s’était déjà fait remarquer en utilisant les réseaux de neurones pour apprendre à un ordinateur à jouer à 49 jeux vidéo des années 1980, comme « Space Invaders », et à atteindre un niveau supérieur aux humains pour 22 d’entre eux. Il faut dire que l’un des trois fondateurs de DeepMind, Demis Hassabis, est passionné par le jeu : jeune prodige des échecs (il a été numéro 2 mondial des moins de 14 ans), il a ensuite développé des jeux vidéo avant de reprendre des études de neurosciences. « Les jeux sont une plate-forme parfaite pour développer des algorithmes d’intelligence artificielle rapidement et efficacement », a-t-il indiqué sur le blog de Google. « A terme, nous voulons appliquer ces méthodes pour résoudre les problèmes du monde réel. »
Le choix d’utiliser le jeu de go pour montrer la puissance des outils de « deep learning » de Google ne doit rien au hasard : inventé en Chine plusieurs siècles avant l’ère chrétienne, le go a longtemps représenté un défi insurmontable pour les informaticiens spécialisés dans les jeux de stratégie. La taille de la grille (19×19) et le principe même du jeu (les deux joueurs se livrent des combats simultanés dans différentes portions du plateau pour occuper le plus d’espace possible), en multipliant les possibilités de coups, rendent le go bien plus difficile à modéliser que les dames ou les échecs.
Prochain match en mars 2016
« Jusqu’à présent, les meilleurs programmes pouvaient battre des joueurs amateurs, mais perdaient face à des professionnels », explique Bruno Bouzy, chercheur en intelligence artificielle et maître de conférence à l’université Paris-Descartes. Pour remporter le match contre Fan Hui, AlphaGo combinait les réseaux neuronaux et une technique déjà utilisée pour le jeu de go par ordinateur, appelée MCTS (« Monte Carlo Tree System »). Il bénéficiait aussi d’une importante puissance de calcul – l’article de « Nature » évoque plus d’un millier de processeurs (CPU) en réseau. Et
L’équipe de DeepMind ne compte pas s’arrêter là : elle a déjà annoncé qu’AlphaGo allait affronter en Corée, en mars prochain, Lee Sedol, considéré depuis dix ans comme le meilleur joueur du monde. Un événement qui, en Asie, devrait avoir autant de retentissement que le match Deep Blue-Kasparov en son temps.