Nul

Hvis du har et fysisk handicap, som gør det vanskeligt at brødføde sig selv, en teleoperated robotarm kan hjælpe. Små industrielle robot-arme er blevet tilpasset til kørestole til netop dette formål. Med fremskridt inden for aktuator teknologi, præcision og kapacitet af disse våben har forbedret sig dramatisk.
Men de forbedringer, der skal gøre livet endnu lettere for brugeren, paradoksalt nok gøre robotterne langt sværere at styre. Med flere grader af frihed og komplekse gribere, den uddannelse og de færdigheder, der kræves for at teleoperate de robotter, der gør dem mindre rentable som hjælpemidler til personer med visse former for handicap.
Også: Denne robot-arm til multitasking kan styres af tanker
Men hvad nu, hvis en robot kunne forudsige, hvad dens operatør ville?
“Tænk på sidste gang du gjorde et andelsselskab opgave med en partner,” Henny Admoni, leder af Human-og Robot-Partnere (HARPE) Lab på Carnegie Mellon University, fortalte mig på et af de seneste opkald. “Tag madlavning i køkkenet. Du er i stand til at give ud nonverbale cues til en partner, som du arbejder på tværs af hinanden.”
Nogen blikke på en spatel, den intuitive og den opmærksomme partner går det over uden et ord.
“Den måde vi gør dette, er ved at tage ikke-verbale cues,” forklarer Admoni. “Hvad jeg gerne vil gøre, er at lave robotter, som er gode til at gøre, at som mennesker er.”
Det er en fascinerende udfordring, en del af den nye forskning inden for Human-Robot Interaction (HRI). Tegning fra discipliner som kognitiv psykologi, antropologi og etnologi, robotteknologi forskere undersøger, hvordan mennesker interagerer i den virkelige verden og udtrykke deres hensigter.
“De smukkeste ting ved HRI er, at det er så tværfagligt,” siger Admoni. “Det er et meget åbent spørgsmål.”
Kognitiv psykologi, herunder en afdeling kaldet psychophysics, har gjort fremskridt i forståelsen af, hvordan, hvornår og hvorfor mennesker afgiver ikke-verbale cues. Men mennesker er komplekse og vise forbløffende variation. Der er ingen generalizable model cue for at give og modtage, ingen ordbog af stikord, der kan bruges til at programmere en robot til at reagere hensigtsmæssigt.
For Admoni, en stor del af svaret ligger i machine learning. Ved hjælp af en baseline forståelse af stikord, robotter kan lære at matche op opfattes cues, med deraf følgende menneskelige adfærd:
Vi har en fornemmelse af, hvad stikord visse mennesker samle op på, fordi psykologi har givet os et indblik. Robotter kan automatisk registrere de stikord, og så lære af at observere folk, hvad virkning de er korreleret til. Er en gnaven ansigt korreleret til en krænkelse af den personlige rum? Er på udkig rundt korreleret til ikke at have det rigtige værktøj foran dig? Robotter lærer over tid i en data-drevet tilgang.
Videnskaben er stadig ung, men hvad det forudsiger, er det grandaddy af alle UX: maskiner, som virkelig føle at de er lydhøre over for vores behov. Der henviser til, at den computer eller mobile enhed du læser dette på, kan kun reagere på en direct-indgang, såsom et tastetryk, en computer i fremtiden forventer måske, at du er ved at dele denne artikel med en ven og åbne et udkast til en e-mail til dig. Og alle, der er baseret på din fedtmule, lyse-eyed grin.
Også: Hvad er machine learning? Alt, hvad du behøver at vide
Den samme form for intention-baserede kontroller kan bruges til at lave komplekse robotter, såsom hjælpemidler robot-arme, meget nemmere og mere intuitivt at styre. Et menneske kan manipulere med et joystick, og robottens, til gengæld, kan forudsige, hvad det menneskelige er om at gøre, og hjælpe med at nå det mål.
Ordningen kaldes fælles autonomi, og det vil spille en stor rolle i, hvordan sociale robotter reagere på, at mennesker i den nærmeste fremtid.
Og det arbejde, der går begge veje. Ligesom robotter bliver nødt til at samle op på subtile forsætlig stikord til at integrere i den menneskelige verden, vil de også nødt til at sende disse signaler til mennesker, hvis de er til at passere som realistisk agenter.
Forskningen er stadig i sin tidlige dage. Ud over sit arbejde på hjælpemidler, Admoni samarbejder med andre CMU forskere på et projekt at undersøge, hvordan robotter kan anvendes fra komfur til bord i en restaurant. Projektet er et partnerskab mellem CMU og Sony Corporation.
En del af Admoni ‘ s opgave er at finde ud af, hvordan robotten kan servere sikkert at navigere skarer samtidig med rygende varm mad. Som en god tjener, en robot server bliver nødt til at læse de intentioner, der fra mængden, og planlægge en hensigtsmæssig vej for at afværge en klapren af faldet retter og skoldet lånere.
Også: 5 ting at vide om bløde robotteknologi TechRepublic
“Det er meget tværgående i form af disciplin. Vi kigger på robotteknologi gennem linser af manipulation, vision, dyb læring, AI. Og mad er sådan et spændende emne, bare en virkelig stor domæne.”
Jeg kalder det nu: Det kommer til at føles underligt ikke at vippe din robot tjeneren efter at have modtaget en sådan udsøgt service.
Udvalgte historier
Her er, hvordan Microsoft kan lave sin Windows-10 update
To Windows-10 feature opdateringer om året er alt for mange
Microsoft Surface Pro 6 alternativer, du kan købe lige nu
Digital transformation i 2019: Erfaringer på den hårde måde
Relaterede Emner:
Innovation
CXO
Kunstig Intelligens
0