Knackpunkt Erkennung entriegelt die Geheimnisse der Körpersprache

0
234

0

posedetection.jpg

CMU Forscher stellen für die Allwissende Kamera.

Was haben ein Haufen gibt auch Robotiker wissen über das Lesen der Körpersprache? Eine Menge, wie sich herausstellt.

Roboter, die bereits die Interaktion mit Menschen auf der Werkshallen und in semi-strukturierten Umgebungen wie Krankenhäusern. Eine große Hürde für die bots machen den Sprung in unstrukturierten Umgebungen ist die Fähigkeit, zu entziffern, die Komplexität der non-verbalen Kommunikation.

Forscher an der Carnegie Mellon University Robotics Institute gerade einen Schritt näher, indem ein computer zu verstehen, der Körper, die Posen und Bewegungen von mehreren Menschen, die von Videos in Echtzeit-einschließlich, zum ersten mal, die pose eines jeden einzelnen Finger.

“Wir kommunizieren fast so viel mit der Bewegung unseres Körpers, wie wir mit unserer Stimme”, sagt Yaser Sheikh, associate professor für Robotik an der CMU, “aber Computer sind mehr oder weniger blind.”

Die Forschung begann mit der Panoptischer Studio, eine zwei-Geschichte-dome-eingebettet mit 500 video-Kameras. “A single shot gibt Ihnen 500 Ansichten einer person die hand, plus es automatisch kommentiert die Stellung “hand”, sagte Hanbyul Joo, CMU Ph. D. student.

Die pose-tracking-Forschung ist die neueste Bestätigung, dass es sich lohnt zu investieren, in die Reine Wissenschaft. Wenn die Panoptischer Studio gebaut wurde, die vor einem Jahrzehnt mit Unterstützung der National Science Foundation, es war nicht klar, welche Auswirkungen es haben würde, Scheich said.

Das Experimentieren mit pose detection in sensor-reiche Umgebung letztlich können die Forscher erkennen, die Posen von einer Gruppe von Menschen, die mit einer einzigen Kamera und einem off-the-shelf laptop, was bedeutet diese Technologie ist nun Billig und sehr flexibel.

Das ist interessant, weil die persönliche computing ist eine offensichtliche Anwendung. Tracking menschlichen Bewegung, die erlauben würde, Menschen mit Computern interagieren, natürlich, und es wird nicht lange dauern und Sie können die Steuerung von Computern durch einfache gesten, ala Tony Stark.

Die Sicherheitsbranche ist auch interessiert an der Technologie. Jetzt, human security-Personal sind geschult, um zu erkennen, ungewöhnliche Körper-Verhalten in Menschenmassen, wie z.B. auf Flughäfen oder Konzerte. Das ist ein bisschen wie mit einem Kanarienvogel zur überwachung der Luftqualität-es irgendwie funktioniert, aber es ist nicht eine große Lösung.

Aber die Anwendung, die ich am meisten begeistert bin, wird in der Robotik, wo die Maschinen werden besser durch Lesen der menschlichen Körpersprache. Da die Absicht ist oft subtil signalisiert wird, bevor eine Aktion durchgeführt wird, ein Selbstfahrendes Auto könnte eine frühe Warnung ein Fußgänger ist über den Schritt in die Straße.

Persönliche Betreuung und assistive Roboter auch Lesen müssen-Körper-Sprache. Roboter-Assistenten werden in der Lage sein, Ihr Verhalten zu ändern, basierend auf die Stimmung Ihrer menschlichen Gegenstücke, und Angehörige der Roboter wird in der Lage sein, zu erkennen, Patienten zu Unbehagen oder Ermüdung durch die Lektüre stellt. Die Technologie könnte zu besseren Verhaltens-Diagnose von Bedingungen wie Legasthenie und Depressionen.

Die CMU-Forscher veröffentlicht haben, Ihre computer-code für multi-person-hand-und-pose-Schätzung, und Sie erzählte mir etwa 20 kommerzielle Gruppen, darunter auch automotive-Unternehmen, die Interesse bekundet haben, in die Lizenzierung der Technologie.

Lesen Sie diese

Ekso competitor unveils lightest robotic suit ever

Ekso Mitbewerber enthüllt leichteste Roboter-Anzug, der jemals

Nach der Erfindung der erste untethered bionic Exoskelett, brach er aus seinem ehemaligen Unternehmen. Nun der Erfinder ist zurück mit einem anderen Durchbruch.

0