deepmind quake iii arena

DeepMind : L’IA bat des humains sur Quake III Arena

Il y a quelques jours, les chercheurs de ont présenté le résultat de leur dernière étude. Des bots sophistiqués ont vaincu des joueurs humains à Quake III Arena, tout comme Alphastar et Starcraft II.

Les jeux vidéo sont parfaits pour entraîner des algorithmes de Deep Learning. Ces environnements fermés permettent aux ingénieurs de spécialiser les réseaux neuronaux. Les équipes de Deepmind ont ainsi appris à leur Intelligence artificielle Deep Blue et Alpha Star à jouer au Go, puis à Starcraft II en un contre un.

Hier, les chercheurs ont prouvé que cette IA pouvait aller plus loin dans ce domaine. L'on pensait que DeepMind était seulement à l'aise avec les RTS, des jeux de stratégie où l'on multiplie les mouvements d'unités et où l'on gère des ressources. Les chercheurs l'ont aussi entraîné sur Quake III Arena.

Quake III Arena : un nouveau terrain de jeu pour Deepmind

Disponible depuis 1999, ce titre reste malgré tout l'exemple type du “Fast FPS”, un jeu de tir à la première personne en ligne qui sollicite au maximum les réflexes du joueur. Dans le cadre de cette étude, les employés de DeepMind se sont concentrés sur le mode “Capture The Flag”. Deux équipes s'affrontent pour attraper et rapporter le drapeau de l'adversaire dans la tour qui surplombe leur camp.

Les humains ont depuis le temps déployé des trésors de stratégie pour protéger le porteur du drapeau. En fait, DeepMind a du générer non pas une entité, mais autant d'IA qu'il y a de participants dans une équipe. Ces “bots” améliorés ont concocté leurs stratagèmes tout en partageant des formes d'attaque avec leurs coéquipiers. Bien conscients que l'IA de DeepMind s'adapte particulièrement bien à un environnement donné, les chercheurs ont opté pour une génération aléatoire de la carte.

En toute logique, humains et machines se retrouvent au même niveau. Pour rattraper le savoir des joueurs, les réseaux neuronaux ont effectué 450 000 parties. Les scientifiques ont ainsi analysé leurs réactions et leurs activités.

Puis, ils ont organisé un tournoi impliquant 40 joueurs humains. Ceux-ci pouvaient collaborer ou affronter les IA de DeepMind. Là encore, il a fallu équilibrer le niveau entre machine et gamer. Les chercheurs ont donc baissé le temps de réaction de leurs bots à 267 ms. Un délai moyen pour un humain. Pourtant, les entités issues du deep learning ont remporté 79 % des parties contre des experts et 88 % des affrontements contre des joueurs moyens.

Un travail d'équipe entre IA

Les agents ont réussi à se distinguer des humains grâce à un travail d'équipe, qui, à première vue, ne semble pas à leur portée. À part leurs actions, ils n'avaient pas de microphone pour communiquer. Ils se sont tout simplement mieux adaptés aux mouvements des autres membres d'une “team”.

Pour expliquer ce résultat, il faut se pencher sur la manière d'apprendre des agents de DeepMind. Les scientifiques n'ont pas entraîné des IA seules dans leur coin, mais ils ont formé des groupes d'agents spécialisés dans un domaine. Certains ont appris des séquences d'actions et les deux tiers ont intégré les techniques pour gagner la partie. En revanche, chacune des entités disposait de leurs propres mécanismes de récompenses : bloquer un adversaire, transporter le drapeau, éliminer les concurrents, etc.

Une avancée de taille qui prouve que comme les humains l'intelligence artificielle a besoin de faire équipe pour progresser plus rapidement.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *