Nul
Kopiering af menneskelig adfærd er indlysende værdi for at gøre robotter, der kan bevæge sig på sofistikerede måder. Men der efterligner mennesker, er langtfra muligt, med de nuværende robotter, som kæmper for at opnå endnu grundlæggende bevægelser.
Ny forskning af kunstig intelligens forskere ved University of California i Berkeley, kan vise vejen til mere effektiv mimik. Forskere var i stand til at få en computer-simulerede menneskelignende figur til ape menneskelige bevægelser, fra back-flips, at “Gangnam Style” dansetrin, blot ved at fodre computeren YouTube-videoklip.
De forskere, der er uddannet en “dyb” neurale netværk, ved hjælp af hvad der er kendt som forstærkning læring, hvor den menneskelignende figur i det edb-program, der er belønnet som sine lemmer i stigende grad indbyrdes bevægelse af et menneske i en video. Det er lidt ligesom, hvordan Google trænet sin “AlphaGo” – program for at finde optimale løsninger til den strategi, spillet Go.
Et sådant arbejde har været gjort før, men som regel med mere kontrollerede former for video, aldrig ved blot at proppe den computer, fuld af YouTube-klip.
Også: Start Slægt bringer splint af håb for AI i robotteknologi
Den forskning, der findes på arXiv pre-print server, der skal vises i the Association for Computing Machinery ‘ s Transaktioner på Grafik tidende næste måned, er forfattet af Xue Bin Peng, Angjoo Kanazawa, Pieter Abbeel, og Sergey Levine, alle af UC Berkeley, sammen med Jitendra Malik fra University of British Columbia. Levine ‘ s lab er gør et stort arbejde på robotten uddannelse, så hans medvirken i rapporten er betydelig. (Der er også en dejlig blog-indlæg om arbejdet.)
Forfatterne fandt deres cue fra big-budget film teknik, der er kendt som motion capture. I motion capture, en menneskelig aktør er filmet fra flere vinkler, der udfører forskellige bevægelser, mens iført en dragt gemt med reflekterende “markører.” De markører, der gør det muligt for computeren at bygge en model af punkter i rummet af hver ekstremitet.
Motion capture har ført til fantastiske computer-genererede karakterer i big-budget film. I “The Lord of the Rings” – trilogien, skuespiller Andy Serkis berømt “udført”, som den karakter Gollum ved at blive filmet flittigt iført motion-capture, der passer. (Lead animator Joe Letteri skrevet et glimrende essay om den proces i Naturen magasin i 2013.)
Men motion capture er dyrt, det er klart, at det kræver særlige dragter, kameraet sat op, faciliteter, etc.
Berkeley forskerne har fundet ud af noget enklere: spore bevægelser uden nogen markører ved fodring AI på YouTube-videoer.

Peng og kolleger tidligere i år tilbudt en ordning, der hedder “DeepMimic”, der stadig påberåbes motion capture. At skifte til raw YouTube-video er derfor en ambitiøs afgang. Den eneste anden tidligere undersøgelse baseret på en sådan video fra 2012, stadig tyet til ved hjælp af nogle “før” oplysninger trukket fra motion-capture. Og at en undersøgelse udarbejdet simulerede bevægelse, der var også “robot.”
Den nye forskning, der tager to faser. For det første, en neurale net “rekonstruerer”, hvad det menneskelige i den YouTube-video, der er at gøre. Forfatterne trak på arbejde fra 2014, ved at Google forskere, som et enkelt billede af en person, der kunne blive analyseret af en convolutional neurale net, eller CNN, og den position af lemmer kunne tydes, selvom dele af kroppen, var der kun delvis er synlige i billedet.
Peng og kolleger, i den foreliggende undersøgelse, tilføjede en twist: De roterede billede på hver frame. Ved at gøre dette, computeren fik bedre til at forstå usædvanlige positioner i den menneskelige krop, såsom når en person er på hovedet i en back-flip. Hver af disse “rejser” var samlet til en “bane” af lemmer fra det ene billede til det næste, til at rekonstruere hele bevægelsen af det menneskelige i den video.
Når en hoppe-jack eller en back-flip-bevægelsen blev rekonstrueret, den anden fase fandt sted: En computer-simulerede humanoid “karakter” var lavet til at kopiere denne bevægelse. Styrkelse lære systemet får “belønning”, som i løbet af uddannelsen fase, da det mere præcist kopier bevægelser.
En video af resultaterne, på YouTube, selvfølgelig, er ganske sjovt at se!
AI algoritmer fik så godt, de kunne forudsige, fra en enkelt frame i en video, hvad bevægelse acrobat kan udføre i efterfølgende video frames.
Også: Google foreslår, at alle software kunne bruge en lille robot, AI
Mens alt dette er en computer-simulation, der er tantalizing forslag, der vedrører robotteknologi. Når rekonstruere den menneskelige bevægelser, forfatterne skabt en version af simulation som bruger ikke er en humanoid, men i stedet en simuleret udgave af “Atlas” robotter lavet af Boston Dynamics, komplet med vægten (375 kg) og højde (6 fod) fra robotten.
Der er grænser for, hvad computeren kan kopiere forfatterne fundet. Især deres animerede karakter ikke gøre en helt troværdig job kopiering Gangnam Style dans. Det er også kæmpet med, hvad der kaldes en “holde op”, hvor en person starter på ryggen, og vender deres ben over deres hoved til at nå frem til en stående position. “Vi har endnu til at være i stand til at træne politikker, der nøje kan reproducere sådanne vævre bevægelser,” forfatterne indrømme.
Tidligere og relaterede dækning:
Robotteknologi i erhvervslivet: Alt, hvad mennesker har brug for at vide
En executive guide til den teknologiske og markedsmæssige drivkræfter bag den $135 mia roboticsmarket.
Levende Maskiner: En hurtig historie af robotter (Del i)
Spottede som de vederstyggeligheder, eller fejres som genial bedrifter af human teknik, robotter, der har været omkring længere, end du tror.
Søges: Robot life coach (ikke rigtigt)
Den unikke job er en antydning af, hvad der er at komme som robotter i stigende grad slutte sig til os i den menneskelige verden
Smukke robotter lavet af high tech papir er hypnotiserende
Halvtreds studerende fik denne shapeshifting papir og fortalte at lade deres fantasi løbe vild. Her er hvad de kom op med.
Relaterede historier:
Der er ingen rolle for AI eller data videnskab: dette er en holdindsats Start Slægt bringer splint af håb for AI i robotteknologi AI: udsigt fra Chief Data Videnskab Kontor Salesforce-introer Einstein Stemme, en AI stemme assistent for virksomheder er det ikke Det job AI er ødelæggende for at genere mig, det er dem, der er voksende, Hvordan Facebook skalaer AISophia robotten går for første gang CNETOpfylde Loomo, Segway ‘ s personlige mobile robot TechRepublic
Relaterede Emner:
Robotteknologi
Digital Transformation
CXO
Tingenes Internet
Innovation
Virksomhedens Software
0