Punto chiave di rilevamento sblocca i segreti del linguaggio del corpo

0
175

0

posedetection.jpg

CMU ricercatori mettono in posa per la sapiente fotocamera.

Cosa fare un mucchio di roboticisti conoscere leggendo il linguaggio del corpo? Un sacco, si scopre.

Robot già interagire con gli esseri umani in fabbrica pavimenti e semi-strutturate ambienti come gli ospedali. Un grosso ostacolo da bot per fare il salto di ambienti non strutturati è la capacità di decifrare la complessità della comunicazione non verbale.

I ricercatori della Carnegie Mellon University, Istituto di Robotica ha ottenuto appena un passo più vicini, consentendo un computer per capire il corpo pose e movimenti di più la gente dal video in tempo reale, tra cui, per la prima volta, la posa di ogni singolo dita.

“Comunichiamo quasi quanto con il movimento del nostro corpo, come facciamo con la nostra voce”, dice Yaser Sheikh, professore di robotica presso la carnegie mellon university, “ma i computer sono più o meno cieca.”

La ricerca è iniziata con il Panottico Studio, una due-storia cupola incorporato con 500 telecamere. “Un solo colpo ti dà 500 vista la mano di una persona, più è automaticamente annota la posizione della mano,” ha detto Hanbyul Joo, un CMU Ph. D. student.

La posa di tracciamento di ricerca è l’ultima convalida che vale la pena di investire in scienza pura. Quando il Panottico Studio è stata costruita una decina di anni fa con il sostegno della National Science Foundation, non era chiaro quale impatto avrebbe, Sheikh ha detto.

Sperimentare con posa di rilevamento di un sensore ambiente ricco, infine, ha permesso ai ricercatori di rilevare le pose di un gruppo di persone che utilizza una telecamera e un off-the-shelf per computer portatile, il che significa che questa tecnologia è ora a basso costo e altamente flessibile.

Questo è interessante, perché l’informatica è una domanda ovvia. Rilevamento del movimento umano avrebbe permesso alle persone di interagire con le macchine, naturalmente, e non passerà molto tempo prima che si può controllare il computer tramite semplici gesti della mano, ala Tony Stark.

L’industria della sicurezza è anche interessato alla tecnologia. Ora, umano, personale di sicurezza sono addestrati per individuare il corpo inusuale comportamento in una folla di persone, come gli aeroporti o i concerti. Che è un po ‘ come l’utilizzo di un canarino per monitorare la qualità dell’aria-è sorta di opere, ma non è una grande soluzione.

Ma l’applicazione più mi emoziona sarà in robotica, dove le macchine funzionano meglio per essere in grado di leggere umano linguaggio del corpo. Dal momento che l’intenzione è spesso sottilmente segnalato prima viene eseguita un’azione, un self-driving car potrebbe ottenere un early warning pedonale è di circa il passaggio in strada.

La cura personale e l’ausilio dei robot anche bisogno di leggere il linguaggio del corpo. Robot assistenti saranno in grado di cambiare il loro comportamento in base al mood del loro controparti umane e sanità robot saranno in grado di rilevare il paziente di disagio o stanchezza leggendo pose. La tecnologia potrebbe portare a una migliore comportamentali diagnostica per condizioni come la dislessia e la depressione.

La CMU ricercatori hanno pubblicato il loro codice di computer sia per multi-persona e la mano-la stima della posa, e mi hanno detto circa 20 gruppi commerciali, tra cui le aziende del settore automotive, hanno espresso interesse in licenza la tecnologia.

Leggere questo

Ekso competitor unveils lightest robotic suit ever

Ekso concorrente presenta più leggero robotica soddisfare sempre

Dopo aver inventato il primo untethered esoscheletro bionico, ha rotto dalla sua ex società. Ora, questo inventore è tornato con un altro punto di svolta.

0