Zero
Copia il comportamento umano è evidente valore per la realizzazione di robot in grado di muoversi in sofisticati modi. Ma imitando l’uomo è in nessun posto vicino possibile con le attuali robotica, che lotta per ottenere movimenti di base.
Le nuove ricerche di intelligenza artificiale scienziati dell’Università della California a Berkeley può indicare la strada per una più efficace mimica. I ricercatori sono stati in grado di ottenere un computer-simulato figura umanoide ape movimenti umani, dal back-flip “Gangnam Style” di danza, solo alimentando il computer i video di YouTube.
I ricercatori hanno addestrato un “profondo” rete neurale, utilizzando ciò che è noto come il rafforzamento dell’apprendimento, in cui la figura umanoide nel programma per computer è premiato come i suoi arti, sempre più approssimativa, il movimento di un essere umano in un video. E ‘un po’ come Google addestrato il suo “AlphaGo” un programma per trovare le soluzioni ottimali per il gioco di strategia di Andare.
Tale lavoro è stato fatto prima, ma di solito più controllata tipi di video, mai da soli stipando il computer pieno di filmati di YouTube.
Anche l’Avvio di Parentela porta scheggia di speranza per l’IA in robotica
La ricerca, disponibile su arXiv pre-server di stampa, che è quello di apparire in Association for Computing Machinery Operazioni di Grafica journal il mese prossimo, è stato creato da Xue Bin Peng, Angjoo Kanazawa, Pieter Abbeel, e Sergey Levine, tutti di UC Berkeley, insieme con Jitendra Malik dell’Università della British Columbia. Levine lab sta facendo un ampio lavoro di robot di formazione, in modo che il suo coinvolgimento nella relazione è significativa. (C’è anche un bel post sul blog il lavoro.)
Gli autori hanno preso spunto dal big-budget movie tecnica conosciuta come “motion capture”. In motion capture, un attore umano è ripreso da più angolazioni eseguire vari movimenti, mentre indossa un vestito presentato con riflettente “marcatori.” I marcatori che consentono al computer di costruire un modello di punti nello spazio di ogni arto.
Motion capture ha portato a brillanti personaggi generati al computer, grande film con un budget. In “Il Signore degli Anelli trilogia”, l’attore Andy Serkis famosa “svolta” come il personaggio di Gollum da essere ripreso ampiamente indossare il motion-capture seme. (Lead animator Joe Letteri scrisse un ottimo saggio sul processo in rivista Nature nel 2013.)
Ma il motion capture è costoso, ovviamente, necessitano di abiti speciali, la fotocamera imposta, i servizi, etc.
Il Berkeley gli scienziati hanno scoperto qualcosa di più semplice: seguire i movimenti senza alcun marker di alimentazione AI video di YouTube.

Peng e colleghi, all’inizio di quest’anno ha offerto un sistema chiamato “DeepMimic” che ancora invocata motion capture. Il passaggio a raw video di YouTube è, pertanto, un ambizioso progetto di partenza. L’unico altro precedente studio che invocata video, dal 2012, ancora fatto ricorso all’uso di alcuni “prima” informazioni tratte dal motion-capture. E che studio ha prodotto simulato il movimento che era troppo robotico”.”
La nuova ricerca si realizza in due fasi. Primo, una rete neurale “ricostruisce” ciò che l’uomo nel video di YouTube che sta facendo. Gli autori hanno attinto lavoro 2014 da Google ricercatori in cui una singola immagine di una persona può essere analizzato da un convolutional la rete neurale, o la CNN, e la posizione degli arti può essere decrittato, anche se le parti del corpo sono stati solo in parte visibili nell’immagine.
Peng e colleghi, nel presente studio, ha aggiunto un tocco in più: Hanno ruotato l’immagine di ogni fotogramma. Così facendo, il computer è meglio insolito posizioni del corpo umano, come quando qualcuno è a testa in giù durante un back-flip. Ognuno di questi “pose” sono stati assemblati in un “percorso” di arti da un fotogramma all’altro, di ricostruire l’intero movimento dell’umano nel video.
Una volta che un trampolino di jack o un back-flip movimento è stato ricostruito, la seconda fase ha avuto luogo: Un computer-simulato umanoide “carattere” è stata fatta a replicare quel movimento. Il rafforzamento del sistema di apprendimento utili “ricompense” durante la fase di formazione in quanto più accuratamente copia i movimenti.
Un video dei risultati, su YouTube, naturalmente, è abbastanza divertente da guardare!
Gli algoritmi di intelligenza artificiale ottenuto così buono, si poteva prevedere da un singolo fotogramma del video che il movimento di un acrobata che potrebbe svolgere nei successivi fotogrammi video.
Anche: Google suggerisce tutti i software potrebbero usare un po ‘ di robot AI
Mentre tutto questo è una simulazione al computer, ci sono stuzzicanti proposte che riguardano la robotica. Quando la ricostruzione dei movimenti umani, gli autori hanno creato una versione della simulazione che utilizza non è un umanoide, ma invece di una versione simulata di “Atlas” i robot costruiti da Boston Dynamics, completare con il peso (375 sterline) e l’altezza (6 piedi) di robot.
Non ci sono limiti a ciò che il computer può copiare, gli autori hanno trovato. In particolare, il loro personaggio animato non completamente credibile di lavoro copia il Gangnam Style dance. Ha anche lottato con quello che viene chiamato un “kip” in cui una persona si mette sulla schiena e ribalta le gambe sopra la testa per raggiungere una posizione in piedi. “Dobbiamo ancora essere in grado di formare criteri strettamente riprodurre tale agili movimenti,” gli autori ammettono.
Precedente e relativa copertura:
Robotica: Tutto ciò che gli esseri umani hanno bisogno di sapere
Un esecutivo a guida per la tecnologia e il mercato piloti dietro di $135 miliardi di roboticsmarket.
Macchine viventi: Una breve storia di robot (Parte I)
Deriso come abominazioni o celebrato come geniale gesta di ingegneria umana, i robot sono stati in giro più di quanto si pensi.
Wanted: Robot allenatore di vita (no, davvero)
L’unico lavoro è un accenno di ciò che è a venire, come i robot sempre più unirsi a noi nel mondo umano
Splendido robot alta tecnologia della carta sono affascinanti
Cinquanta studenti hanno dato questa mutaforma carta e ha detto di lasciare fluire la loro immaginazione selvaggia. Ecco cosa ne è venuto fuori.
Storie correlate:
Non c’è un ruolo per IA o i dati della scienza: questo è un lavoro di squadra di Avvio del Parentado porta scheggia di speranza per l’intelligenza artificiale robotica AI: La vista dal Capo Scienza di Dati Ufficio Salesforce intro Einstein Voce, una IA assistente vocale per le imprese non i posti di lavoro AI è distruggere che mi da fastidio, è che quelli che stanno crescendo Come Facebook scale AISophia il robot cammina per la prima volta CNETSoddisfare Loomo, Segway personal robot mobile TechRepublic
Argomenti Correlati:
Robotica
La Trasformazione Digitale
CXO
Internet delle Cose
L’innovazione
Enterprise Software
0