0

CMU onderzoekers vormen voor de al-wetende camera.
Wat een stelletje roboticists weten over het lezen van lichaamstaal? Veel, zo blijkt.
Robots al interactie met mensen in de fabriek vloeren en in de semi-gestructureerde omgevingen zoals ziekenhuizen. Een grote horde om bots te maken van de sprong naar een ongestructureerde omgevingen is de mogelijkheid om het ontcijferen van de complexiteit van de non-verbale communicatie.
Onderzoekers aan de Carnegie Mellon University ‘ s Robotics Institute net een stap dichter bij het inschakelen van een computer te begrijpen van het lichaam houdingen en bewegingen van meerdere mensen van video in real-time-met inbegrip van, voor de eerste keer, de pose van elke afzonderlijke vingers.
“We communiceren bijna net zo veel met de beweging van ons lichaam zoals we dat doen met onze stem,” zegt Yaser Sheikh, associate professor van de robotica van CMU, “maar computers zijn meer of minder blind.”
Het onderzoek begon met de Panoptic Studio, een twee-verhaal dome ingesloten met 500 video camera ‘ s. “Een single shot geeft je 500 uitzicht van een persoon de hand, plus het automatisch annotates de positie van de hand,” zei Hanbyul Joo, een CMU D. Ph. student.
De pose tracking onderzoek is de laatste validatie dat het loont om te investeren in de zuivere wetenschap. Wanneer de Panoptic Studio werd gebouwd tien jaar geleden met steun van de National Science Foundation, het was niet duidelijk welke gevolgen het zou hebben, Sheikh zei.
Experimenteren met vormen van detectie in een sensor-rijke omgeving uiteindelijk konden de onderzoekers voor het detecteren van de houding van een groep van mensen met een enkele camera en een off-the-shelf laptop, wat betekent deze technologie is nu goedkoop en zeer flexibel.
Dat is interessant, want personal computing is een voor de hand liggende toepassing. Het bijhouden van de menselijke beweging zou stellen voor mensen om te communiceren met machines natuurlijk, en het zal niet lang duren voordat u kunt bepalen computers door middel van eenvoudige handgebaren, ala Tony Stark.
De security-industrie is ook geïnteresseerd in de technologie. Nu, human security, het personeel is getraind om te detecteren ongewone lichaam-gedrag van groepen mensen, zoals op luchthavens of concerten. Dat is een beetje zoals met behulp van een kanarie te bewaken kwaliteit van de lucht–het sorteren van werken, maar het is niet een geweldige oplossing.
Maar de applicatie die ik het meest enthousiast over ben zal worden in de robotica, waar de machines beter zal presteren door te lezen-het menselijk lichaam taal. Sinds de intentie is vaak subtiel gesignaleerd voordat een actie wordt uitgevoerd, een zelf-rijdende auto zou kunnen krijgen een early-warning-een voetganger is over te stappen van de straat.
Persoonlijke verzorging en ondersteunende robots ook behoefte aan het lezen van lichaamstaal. Robot-assistenten in staat zullen zijn om hun gedrag te veranderen op basis van de stemming van hun menselijke tegenhangers, en de gezondheidszorg zullen robots in staat om te detecteren patiënt ongemak of vermoeidheid door het lezen van poses. De technologie kan leiden tot een betere gedragsproblemen diagnostiek voor aandoeningen zoals dyslexie en depressie.
De CMU onderzoekers hebben vrijgegeven van hun computer code voor zowel multi-persoon en hand-pose estimation, en ze vertelde me over 20 commerciële groepen, met inbegrip van auto-bedrijven, hebben interesse in de licentiëring van de technologie.
Lees dit
Exo concurrent onthult lichtste robot pak ooit
Na het uitvinden van de eerste-ooit ongebonden bionic exoskeleton, brak hij van zijn voormalige bedrijf. Nu deze uitvinder is terug met een nieuwe doorbraak.
0