Psychofysica en de bizarre wetenschap achter robots die weten wat we willen

0
81

Nul

coffee.jpg

Als u een lichamelijke handicap die het moeilijk maakt om te voeden van jezelf, een teleoperated robotarm zou kunnen helpen. Kleine industriële robotarmen zijn aangepast voor rolstoelen voor precies dat doel. Met de vooruitgang in de actuator-technologie, de precisie en de mogelijkheden van die armen dramatisch verbeterd.

Maar die verbeteringen, die worden verondersteld om het leven nog makkelijker voor de gebruiker, paradoxaal genoeg maken de robots veel moeilijker te controleren. Met meerdere graden van vrijheid en complexe grijpers, de training en behendigheid nodig om teleoperate de robots maakt ze minder bruikbaar als hulpmiddelen om mensen met bepaalde soorten handicaps.

Ook: Deze robotarm voor multitasking kan worden bestuurd met gedachten

Maar wat als een robot kunnen voorspellen wat de exploitant wilde?

“Denk aan de laatste keer dat je deed een gezamenlijke taak met een partner”, zegt Henny Admoni, hoofd van de Mens en Robot Partners (HARP) Lab aan de Carnegie Mellon University, vertelde me op een recente oproep. “Neem het koken in de keuken. Je bent in staat om aan te geven uit non-verbale signalen om een partner werk je aan de overkant van elkaar.”

Iemand blikken op een spatel, de intuïtieve en attente partner gaat het dan zonder een woord.

“De manier waarop we dit doen is door het oppakken van non-verbale signalen,” legt Admoni. “Wat ik wil doen, is het maken van robots zo goed in om dat te doen als mensen zijn.”

Het is een boeiende uitdaging, een deel van de nog opkomende gebied van Human Robot Interaction (HRI). Tekening uit verschillende disciplines, zoals de cognitieve psychologie, de antropologie en de etnologie, robotica onderzoekers bestuderen hoe mensen met elkaar samenwerken in de echte wereld en hun bedoelingen.

“Het mooie van HRI is het zo interdisciplinair,” zegt Admoni. “Dit zijn zeer open onderzoek vragen.”

De cognitieve psychologie, met inbegrip van een branch genaamd psychofysica, heeft vooruitgang geboekt in het begrijpen van het hoe, wanneer en waarom mensen geven uit non-verbale signalen. Maar de mensen zijn complex en display verbazingwekkende variabiliteit. Er is geen generalizable model voor de cue geven en ontvangen, geen woordenboek van signalen die kunnen worden gebruikt voor het programmeren van een robot adequaat te reageren.

Voor Admoni, een groot deel van het antwoord ligt in machine learning. Met behulp van een basis begrip van de signalen, met de robots kunnen leren om de afstemming van waargenomen signalen met als gevolg het menselijk gedrag:

We hebben een aantal gevoel van cues bepaalde mensen op te pikken, omdat de psychologie heeft ons enigszins inzicht. Robots kunnen automatisch detecteren die signalen en leren van het observeren van mensen wat het effect van die gecorreleerd zijn. Is een knorrig gezicht gecorreleerd aan een schending van de persoonlijke ruimte? Opzoek Is gecorreleerd aan het niet hebben van het juiste gereedschap voor u? De robots leren de loop van de tijd in een data-gedreven aanpak.

De wetenschap is nog jong, maar wat het voorspelt is de grandaddy van alle UX: machines die voelen zich echt inspelen op onze behoeften. Overwegende dat de computer of het mobiele apparaat dat u dit leest kunt alleen reageren op een directe input, zoals een toetsaanslag, een computer van de toekomst er zou kunnen verwachten dat je over dit artikel delen met een vriend en open een ontwerp van een e-mail voor u. En dat alles op basis van uw goofy, lichte ogen grijns.

Ook: Wat is machine learning? Alles wat je moet weten

Dezelfde soort van intentie-gebaseerde controles kan worden gebruikt voor het maken van complexe robots, zoals assistentie robotarmen, veel gemakkelijker en intuïtiever te besturen. Een mens kan manipuleren van een joystick en de robot, op zijn beurt, kan voorspellen wat de mens over te doen en te helpen dat doel te bereiken.

De regeling is een zogenaamde gedeelde autonomie, en het zal een belangrijke rol spelen in de manier waarop sociale robots te reageren op mensen in de nabije toekomst.

En het werk snijdt aan twee kanten. Net als robots moet pick-up op subtiele opzettelijke cues om te integreren in de menselijke wereld, maar ze moet ook stuurt de signalen voor de mens als ze te passeren als realistisch agenten.

Het onderzoek is nog in de beginfase. Naast haar werk op hulpmiddelen, Admoni is de samenwerking met andere CMU onderzoekers op een project te onderzoeken hoe de robots kunnen gebruikt worden vanaf de kookplaat te tafelblad in een restaurant. Het project is een samenwerkingsverband tussen CMU en Sony Corporation.

Een deel van Admoni ‘ s taak is om erachter te komen hoe de robot servers veilig kunnen navigeren drukte, terwijl het dragen van leidingen warm te eten. Zoals een goede ober, een robot server zal hebben om te lezen en de intenties van de menigte en het plan een passende weg om te voorkomen dat een gekletter van de gevallen gerechten en gebroeid opdrachtgevers.

Ook: 5 dingen om te weten over zachte robotica TechRepublic

“Het is heel cross-cutting in termen van discipline. We kijken naar robotica door de lenzen van manipulatie, visie, diep leren, AI. En voedsel is zo ‘ n boeiende onderwerp, maar een echt groot domein.”

Ik noem het nu: het gaat om Het gevoel raar niet tippen uw robot kelner na ontvangst van een dergelijke uitstekende service.

Aanbevolen verhalen

Hier is hoe Microsoft kunt herstellen van de Windows-10 update problemen

Twee Windows-10 functie-updates per jaar is te veel

De Microsoft Surface Pro 6 alternatieven die u nu al kunt kopen

Digitale transformatie in 2019: de Lessen die zijn geleerd op de harde manier

Verwante Onderwerpen:

Innovatie

CXO

Kunstmatige Intelligentie

0