
Google DeepMind ‘ s nye agent bruger den samme dybe styrkelse metoder til at lære, at det er tidligere ansat til at mestre spillet Go.
Billede: Claire Reilly/CNET
Den seneste AI skabelse fra forskere på Google ‘ s DeepMind lab er UVIRKELIGT, en særlig hurtig agent, som kan løse mere komplekse opgaver, end bare spil.
DeepMind forskere præsenterer deres resultater i en ny artikel, der beskriver Uovervåget Forstærkning og Ekstra Læring, eller UVIRKELIG, som i en del låner fra den måde, dyr drøm om at fremskynde læring.
Test agent på Atari-spil og 3D-spil, Labyrint, fandt de, at det var i stand til at lære 10 gange hurtigere end den tidligere algoritmer. Det er også i gennemsnit 87 procent ekspert human performance på Labyrinten.
Som DeepMind ‘ s London-baserede forskere forklare, at agenten bruger den samme dybe styrkelse metoder til at lære, at det er tidligere ansat til at mestre spillet, Gå og flere Atari 2600 spil.
Men hvad gør UVIRKELIGT særlige er, at det er blevet suppleret med to yderligere opgaver, som låner fra, hvordan dyr drøm og en anden, der minder om den måde babyer udvikler motoriske færdigheder.
“Lige så dyr drøm om positivt – eller negativt-givende arrangementer oftere, vores agenter fortrinsvis afspille sekvenser, der indeholder berigende events,” som de skriver i avisen.
Forskerne har brugt dette koncept til at undervise agenten til at fokusere på visuelle referencer fra sin nyere historie, af oplevelser, som signal genveje til større belønninger.
“Agent er uddannet til at forudsige sygdommens øjeblikkelig belønning fra en kort historisk sammenhæng. For bedre at kunne håndtere den situation, hvor belønningen er sjældne, har vi præsenterer agent med tidligere givende og ikke-givende historier i lige så stor andel,” de forklarede i et blogindlæg.
“Ved at lære på en herlig historie meget mere hyppigt, at agenten kan opleve visuelle funktioner er egnede til forudsigelse af belønning meget hurtigere.”
Den anden opgave hensyn til, hvordan agenten kontrol pixels på skærmen på en måde, der fokuserer på læring fra handlinger til at fortælle, hvad der er nyttigt til at spille godt og score højt i et givet spil.
Ved hjælp af de tre teknikker kombineres, forskere testet agent på 57 Atari spil og 13 niveauer af Labyrinten.
En del af den præstation er, ikke blot at skabe en agent, der udmærker sig ved hvert spil, men at agenten behøver ikke at blive tilpasset for at lære hvert spil.
Som forskere har påpeget, DeepMind ‘ s vigtigste mål er at bryde nye veje i AI ved hjælp af programmer, der “kan lære at løse ethvert komplekst problem, uden at behøve at blive undervist i, hvordan man”. Så, nu har de en hurtigere-learning-agent og en, der er også mere fleksibel.
“Vi håber, at dette arbejde vil give os mulighed for at skalere op til vores agenter til stadig mere komplekse miljøer,” siger forskerne.
CNET: AI er bare ikke vild med dig-endnu