Het bekijken van YouTube video ‘ s kan op een dag laat robots kopie mensen

0
165

Nul

Het kopiëren van menselijk gedrag heeft voor de hand liggende waarde voor het maken van robots die kunnen bewegen in een verfijnde manieren. Maar het nabootsen van de mens is nergens in de buurt mogelijk is met de huidige robotica, die worstelen om nog fundamentele bewegingen.

Nieuw onderzoek door kunstmatige intelligentie wetenschappers aan de Universiteit van Californië in Berkeley kan de weg wijzen naar meer effectieve mimicry. De onderzoekers waren in staat om een computer-gesimuleerde mensachtige figuur ape menselijke bewegingen, van back-flips “Gangnam Style’ dansbewegingen, gewoon door het voeden van de computer de YouTube-video clips.

De opgeleide onderzoekers een “diepe” neurale netwerk, gebruik van wat bekend staat als reinforcement learning, waar de mensachtige figuur in het computer programma wordt beloond als de ledematen steeds een benadering van de beweging van een mens in een video. Het is een beetje zoals hoe Google getraind zijn “AlphaGo” programma vinden van optimale oplossingen voor het strategie spel Gaat.

Dat werk is al eerder gedaan, maar meestal met meer gecontroleerde types van video, nooit, slechts door het inpompen van de computer vol van YouTube clips.

Ook: het Opstarten van Verwanten brengt glimp van hoop voor AI-robotica

Het onderzoek, dat beschikbaar is op het arXiv pre-print-server, die is weergegeven in de Association for Computing Machinery ‘ s Transacties op Graphics journal volgende maand, is geschreven door Xue Bin Peng, Angjoo Kanazawa, Pieter Abbeel, en Sergey Levine, alle van UC Berkeley, samen met Jitendra Malik van de Universiteit van British Columbia. Levine ‘ s lab is veel werk op de robot training, dus zijn betrokkenheid in het rapport is significant. (Er is ook een mooie blog post over het werk.)

De auteurs hebben hun cue van de big-budget film techniek van motion capture. In de motion capture, een menselijke acteur wordt gefilmd vanuit meerdere hoeken het uitvoeren van verschillende bewegingen, terwijl het dragen van een pak ingediend met reflecterende markers.” De markeringen op de computer in staat stellen om een model te bouwen van de punten in de ruimte van elke ledemaat.

Motion capture heeft geleid tot een briljante computer-gegenereerde tekens in big-budget films. In “The Lord of The Rings” – trilogie, acteur Andy Serkis beroemde “uitgevoerd” als het personage Gollum door gefilmd wordt uitgebreid met het dragen van de motion-capture suit. (Lead animator Joe Letteri schreef een uitstekend essay over het proces in de Natuur magazine in 2013.)

Maar motion capture is duur, uiteraard, die speciale pakken, de camera instellen, de faciliteiten, etc.

De Berkeley wetenschappers vonden iets eenvoudiger: track bewegingen zonder enige markeringen door het voeren van AI op YouTube video ‘ s.

computer-learns-a-backflip.png

Peng en collega ‘ s eerder dit jaar aangeboden een systeem genaamd “DeepMimic” die nog steeds gebruikt op de motion capture. Overschakelen naar rauw YouTube-video is dan ook een ambitieus vertrek. De enige eerdere studie die gebruikt zijn op deze video, uit 2012, nog steeds hun toevlucht tot het gebruik van enkele “voorafgaande” informatie afkomstig van motion-capture. En die studie die gesimuleerde beweging die was te “robot.”

Het nieuwe onderzoek neemt twee fasen. Ten eerste, een neuraal net “reconstrueert” wat de mens in de YouTube-video aan het doen is. De auteurs zich gebaseerd op het werk van 2014 door Google onderzoekers die een enkel beeld van een persoon kan worden geanalyseerd door een convolutional neural net, of CNN en de positie van de ledematen kunnen worden ontcijferd, hoewel delen van het lichaam werden slechts gedeeltelijk zichtbaar zijn in de afbeelding.

Peng en collega ‘ s, in de huidige studie, toegevoegd een twist: Ze roteren met de afbeelding van elk frame. Door dit te doen, de computer beter inzicht krijgen in ongewone posities van het menselijk lichaam, zoals wanneer iemand zijn kop tijdens een back-flip. Elk van deze “poses” werden samengevoegd in een “traject” van de ledematen van de ene frame naar de volgende, voor het reconstrueren van de hele beweging van de mens in de video.

Zodra een jumping jack, of een back-flip beweging werd gereconstrueerd, de tweede stap plaats: Een computer-gesimuleerde humanoid “teken” is gemaakt voor het repliceren van die beweging. De reinforcement learning systeem winsten “beloningen” tijdens de training fase als het meer nauwkeurig kopieert de bewegingen.

Een video van de resultaten, op YouTube is natuurlijk heel leuk om naar te kijken!

De AI algoritmen kreeg zo goed, ze kon voorspellen van een enkel frame van de video wat beweging een acrobat kunnen verrichten in de volgende video frames.

Ook: Google geeft alle software kunnen gebruik maken van een kleine robot AI

Terwijl dit alles is een computer simulatie, er zijn prikkelende suggesties die betrekking hebben op de robotica. Bij het reconstrueren van de menselijke bewegingen, de auteurs gemaakt van één versie van de simulatie gebruikt niet een mensachtige, maar in plaats daarvan een gesimuleerde versie van de “Atlas” robots gemaakt door Boston Dynamics, compleet met het gewicht (375 kilo) en lengte (6 meter) van de robot.

Er zijn grenzen aan wat de computer kan kopiëren, vonden de auteurs. In het bijzonder, hun geanimeerde karakter niet geheel geloofwaardig werk kopiëren van de Gangnam Style dans. Ook worstelde met wat heet een “kip” waar een persoon begint op de rug en flips hun benen over hun hoofd om bij een staande positie. “We hebben nog te kunnen trainen beleid dat nauw kan reproduceren van deze lenige bewegingen,” de auteurs toegeven.

Vorige en aanverwante dekking:

Robotica in het bedrijfsleven: Alles wat de mens moet weten

Een executive gids voor de technologie en de markt ‘drivers’ achter het $135 miljard roboticsmarket.

Woon-Machines: Een beknopte geschiedenis van de robots (Deel I)

Belachelijk gemaakt als gruwelen of gevierd als vernuftige staaltjes van human engineering, robots hebben al langer dan je denkt.

Gezocht: Robot life coach (nee, echt)

De unieke baan is een hint van wat komen gaat als robots steeds met ons mee in de wereld van de mensen

Prachtige robots gemaakt van high-tech papier zijn betoverende

Vijftig studenten kregen dit shapeshifting papier en vertelde laten hun fantasie de vrije loop. Hier is wat ze bedacht.

Verwante artikelen:

Er is geen rol voor de AI of data science: dit is een team inspanning Opstarten Verwanten brengt glimp van hoop voor AI AI-robotica: Het uitzicht vanuit de Chief Data Science Office Salesforce intro ‘s van Einstein Stem, een AI-voice assistant voor ondernemingen is Het niet de banen AI is het vernietigen van dat stoort me, het is die groeiende Hoe Facebook schalen AISophia de robot loopt voor de eerste keer CNETVoldoen aan Loomo, Segway’ s persoonlijke mobiele robot TechRepublic

Verwante Onderwerpen:

Robotica

Digitale Transformatie

CXO

Het Internet van Dingen

Innovatie

Enterprise Software

0