Une entreprise rachetée par Google l’année dernière a développé une IA capable d’apprendre des stratégies de jeux d’elle même.

La société
DeepMind, une société anglaise rachetée par Google pour 400 millions de livres en 2014, essaye de changer la façon de concevoir l’intelligence artificielle dans le cadre du jeu. De tels travaux pourraient en effet être utiles pour des projets comme la Google Car, la fameuse voiture de la firme qui se conduit toute seule.
Si la stratégie principale était d’inculquer un très grand nombre de réponses en fonction d’un très grand nombre de situations prédéterminées à une machine (c’était le cas pour Deep Blue et Deeper Blue, les ordinateurs qui affrontèrent Kasparov aux échecs de 1996 à 1997), ici,
il s’agit d’apprendre l’ordinateur à… apprendre.
Mis devant des classiques de l’Atari 2600 comme Breakout, le programme commence d’abord par jouer un peu au hasard, renvoyant la balle sans trop de stratégie. Par l’apprentissage par l’échec et au bout de 600 parties sans aucune modification de l’algorithme, l’ordinateur est parvenu à déployer une stratégie extrêmement efficace consistant à créer des tunnels sur les côtés pour détruire le mur par l’arrière.
Un des membres de l’équipe derrière la conception de ce logiciel, Vlad Mnih, explique ainsi au Guardian qu’il est «
extrêmement amusant de voir des ordinateurs découvrir des choses que vous n’avez pas trouvées vous-même ».
Le fondateur de la société,
Demis Hassabis, est quant à lui à deux doigts de parler de « créativité », capacité que l’on pense pourtant uniquement propre aux humains.
Un jour les machines seront capables d’une certaine forme de créativité, mais nous n’y sommes pas encore.
L’algorithme n’a d’ailleurs pas seulement joué à Breakout, mais a été mis à l’épreuve de nombreux titres comme
Pong ou
Space Invaders. Le très célèbre magazine scientifique Nature qui a publié l’étude sur ces travaux a montré que l’ordinateur parvenait à se hisser à au moins 75 % du niveau de testeurs de jeux professionnels sur la moitié des jeux soumis à la machine.
L’étude montre également que le programme est spécifiquement meilleur sur certains types de jeux comme
Space Invaders,
Pong ou
Breakout. Cependant, elle se montrait bien moins performante sur des jeux demandant de la planification sur un temps plus long. Il manque à la machine la capacité de pouvoir intégrer des objectifs plus ambitieux que de simplement marquer le plus de points. Les développeurs de Google veulent ainsi le coupler à un composant de mémoire pour tenter de faire jouer le logiciel à des jeux plus complexes.
Quant à ceux qui, comme
Elon Musk, ont peur qu’un jour les robots se rebellent, Google tient à les rassurer :
Nous sommes d’accord avec lui sur le fait qu’il y ait des risques qu’il faut garder à l’esprit, mais nous sommes encore à des décennies de créer des technologies qui pourraient être réellement inquiétantes.
Pas pour demain, donc. Mais pour après-demain, peut-être.
Je rêve d'une IA totalement autonome.
Comment l'ordinateur ménerait sa stratégie si le jeu est buggué comme AC Unity ? Ou dans un jeu en 3D open world ?
Oui c'est clair que la performance est toute autre !
Tu as pas compris , le système est limité en termes de jeux.
Full 3D expérience ou apprendre dans un open world c'est pas possible tellement les paramètres sont infinis.
Ici l'IA n'est pas programmée pour un jeu en particulier et c'est par essai erreur qu'en gros elle découvrira comment gagner des points puis comment en gagner de plus en plus vite et efficacement en gros l'IA évolue contrairement à Smash où elle est juste limitée...
Me semble par contre que R.O.B fonctionnait comme ça sur NES