Google DeepMind IA: Maintenant, il puise dans les rêves pour en apprendre encore plus vite

0
264
google-deepmind-go.jpg

Google DeepMind le nouvel agent utilise le même profond renforcement des méthodes d’apprentissage qu’il est déjà employé à maîtriser le jeu de Go.

Image: Claire Reilly/CNET

Les dernières IA création de la part des chercheurs à Google de DeepMind laboratoire est IRRÉEL, particulièrement rapide de l’agent qui pourrait s’attaquer à des tâches plus complexes que de simples jeux.

DeepMind chercheurs de présenter leurs conclusions dans un nouveau document décrivant non supervisée de Renforcement et des Auxiliaires de l’Apprentissage ou de l’IRRÉEL, qui emprunte à la façon dont les animaux rêve pour accélérer l’apprentissage.

Les essais de l’agent sur Atari jeux et la 3D jeu de Labyrinthe, ils ont trouvé qu’il était capable d’apprendre 10 fois plus rapide que ses algorithmes précédents. Il a également des moyennes de 87% expert de la performance humaine sur le Labyrinthe.

Comme DeepMind de Londres, des chercheurs de l’expliquer, l’agent utilise le même profond renforcement des méthodes d’apprentissage qu’il est déjà employé à maîtriser le jeu de Go et plusieurs Atari 2600 jeux.

Toutefois, ce qui rend IRRÉEL spécial, c’est qu’il a été augmentée avec deux tâches, l’une qui emprunte à la façon dont les animaux rêve et un autre qui ressemble à la façon dont les enfants développent des habiletés motrices.

“Comme les animaux rêvent positivement ou négativement-la décoration d’événements de plus en plus fréquemment, nos agents préférentiellement de relecture des séquences contenant gratifiantes,” écrivent-ils dans le document.

Les chercheurs ont utilisé ce concept pour enseigner à l’agent de se concentrer sur des repères visuels à partir de son histoire récente des expériences, signal de raccourcis à de plus grandes récompenses.

“L’agent est formé pour prédire l’apparition de récompenses immédiates à partir d’un court contexte historique. Pour mieux faire face à un scénario où les récompenses sont rares, nous présentons l’agent avec le passé de récompenser et de non-gratifiant histoires dans une égale proportion,” ont-ils expliqué dans un billet de blog.

“Grâce à l’apprentissage sur le fait de récompenser des histoires beaucoup plus fréquemment, l’agent peut découvrir des fonctionnalités visuelles prédictive de récompense, beaucoup plus rapide.”

L’autre tâche en ce qui concerne la manière dont l’agent de contrôle de pixels sur l’écran dans une manière qui met l’accent sur l’apprentissage à partir de mesures de dire ce qui est utile à bien jouer et marquer plus fortement dans un jeu donné.

Avec l’aide de trois techniques combinées, les chercheurs ont testé l’agent sur 57 jeux Atari et 13 niveaux de Labyrinthe.

Le cadre de la réalisation n’est pas seulement la création d’un agent qui excelle dans chaque jeu, mais que l’agent n’a pas besoin d’être personnalisés pour apprendre à chaque jeu.

Comme les chercheurs l’ont souligné, DeepMind, son but principal est de franchir une nouvelle étape dans l’IA à l’aide de programmes qui “peuvent apprendre à résoudre tout problème complexe sans avoir besoin d’être enseigné comment”. Donc, ils ont maintenant le plus rapide de l’apprentissage de l’agent et qui est aussi plus flexible.

“Nous espérons que ce travail va nous permettre d’étendre nos agents de plus en plus complexes de l’environnement,” les chercheurs ont dit.

CNET: l’IA est juste pas que dans vous-pas encore