Psicofisica & la scienza bizzarra dietro robot che sappiamo ciò che vogliamo

0
119

Zero

coffee.jpg

Se si dispone di una disabilità fisica che rende difficile per nutrirsi, un teleoperated braccio robotico potrebbe aiutare. Piccolo industriale bracci robotici sono stati adattati per sedie a rotelle esattamente per questo scopo. Con gli avanzamenti nella tecnologia con l’attuatore, la precisione e la funzionalità di tali armi è migliorata notevolmente.

Ma quei miglioramenti, che sono supposti per rendere la vita ancora più facile per l’utente, paradossalmente, rendere i robot molto più difficile il controllo. Con più gradi di libertà e complesso pinze, la formazione e la destrezza necessaria per teleoperate i robot li rende meno vitali come l’aids per quelli con determinati tipi di disabilità.

Ma cosa succede se un robot in grado di prevedere ciò che il suo operatore voluto?

“Pensare l’ultima volta che hai fatto una cooperativa di attività con un partner,” Henny Admoni, la testa dell’Uomo e il Robot Partner (ARPA) Laboratorio presso la Carnegie Mellon University, mi ha detto in una recente richiesta. “Di cucina in cucina. Siete in grado di dare segnali non verbali di un partner, come si lavora attraverso una dall’altra.”

Qualcuno sguardi di una spatola, intuitivo partner attento e passa oltre, senza una parola.

“Il modo per farlo è quello di raccogliere spunti”, spiega Admoni. “Quello che mi piacerebbe fare è di rendere i robot come bene che in quanto esseri umani.”

E ‘ una sfida affascinante, parte della ancora emergenti campo di ricerca di Human Robot Interaction (HRI). Disegno da discipline come la psicologia, l’antropologia e l’etnologia, la robotica, i ricercatori stanno studiando il modo di interagire nel mondo reale e di esprimere le loro intenzioni.

“La cosa più bella HRI è così interdisciplinare”, dice Admoni. “Questi sono molto aperto alle domande di ricerca.”

La psicologia cognitiva, tra cui un ramo chiamato psicofisica, ha fatto passi avanti nella comprensione di come, quando e perché gli esseri umani darti degli indizi non verbali. Ma le persone sono complesse e visualizzare sorprendente variabilità. Non c’è generalizzabile modello per cue dare e ricevere, nessun dizionario di spunti che potrebbero essere utilizzati per programmare un robot per rispondere in modo appropriato.

Per Admoni, una grande parte della risposta sta nella macchina di apprendimento. Utilizzando una base di comprensione di spunti, un robot imparare corrispondenza percepito spunti, con conseguente comportamento umano.

“Abbiamo un po’ di senso di ciò che spunti certa gente prendere, perché la psicologia ci ha dato alcune informazioni. Robot in grado di rilevare automaticamente quelle spunti e poi imparare da, osservando la gente che effetto coloro che sono correlati. È uno scontroso faccia correlata a una violazione dello spazio personale? È alla ricerca intorno correlate per non avere lo strumento giusto di fronte a voi? I robot imparano nel corso del tempo in un data-driven approach”.

La scienza è ancora giovane, ma quello che si prevede è il fabio concato di tutti UX: macchine che si sentono veramente rispondente alle nostre esigenze. Considerando che il computer o il dispositivo mobile si sta leggendo questo può rispondere solo a un ingresso diretto, come ad esempio una sequenza di tasti, un computer del futuro potrebbe prevedere che stai per condividere questo articolo con un amico e aprire un progetto di e-mail. E tutto basato sul vostro pippo, dagli occhi vivaci sorriso.

Lo stesso tipo di intenzione a base di controlli possono essere utilizzati per rendere il robot complessi, come assistive bracci robotici, molto più facile e più intuitivo di controllo. Un essere umano può manipolare un joystick e il robot, a sua volta, in grado di prevedere ciò che l’uomo sta per fare, e aiuta a raggiungere l’obiettivo.

La disposizione è chiamato condiviso autonomia, e giocherà un ruolo importante nel robot sociali reagire agli esseri umani in un prossimo futuro.

E il lavoro di tagli in entrambi i modi. Proprio come i robot avranno bisogno di raccogliere in un sottile intenzionale spunti per integrare nel mondo umano, essi ‘ ll anche bisogno di trasmettere i segnali per gli esseri umani se vogliono passare come realistico agenti.

La ricerca è ancora nei suoi primi giorni. Oltre al suo lavoro su ausili, Admoni sta collaborando con altri CMU ricercatori su un progetto di indagare come i robot può essere utilizzato dal piano cottura al tavolo in un ristorante. Il progetto è una collaborazione tra CMU e Sony Corporation. Parte di Admoni lavoro è quello di capire come server di robot può tranquillamente navigare folla, mentre portando tubazioni cibo caldo. Come un buon cameriere, un robot server sarà necessario leggere le intenzioni della folla e pianificare un percorso appropriato al fine di evitare un rumore di cadere piatti e scottate i patroni.

“E’ molto trasversali in termini di disciplina. Stiamo cercando di robotica attraverso le lenti di manipolazione, di visione, di profondo, di apprendimento, AI. E il cibo è convincente argomento, basta davvero un grande dominio.”

Sto chiamando ora: Si sta andando a sentire strano non si ribalti il vostro robot cameriere dopo il ricevimento di tale servizio squisito.

Argomenti Correlati:

L’innovazione

CXO

Intelligenza Artificiale

0