Come GPU abilitata macchina di apprendimento potrebbe aiutare robot spaziali

0
139

I robot sono il perfetto strumenti per esplorare sconosciuto e potenzialmente pericoloso territori, che è il motivo per cui essi sono essenziali per l’esplorazione dello spazio. Ma mentre i robot sono grandi a compiti ripetitivi in ambienti industriali, che lotta con il mondo esterno. Il Software potrebbe essere l’anello mancante che potrebbe aiutare il robot sarà in grado di adattarsi alle imprevedibili spazio scenari.

“C’è ancora automazione di fabbrica eredità per la robotica”, dice BluHaptics CEO Don Pickering. “Ma anche le esigenze e le sfide che vengono poste sulla robotica quando li si sposta in ambienti dinamici in campo sono solo diversi.”

BluHaptics è una società di software specializzata in robotica di controllo per ambienti sottomarini, ma come la tecnologia può anche essere utile per esplorare Marte o altri pianeti. La NASA ha recentemente assegnato BluHaptics finanziamento a fondo perduto per applicare il suo software da remoto operazioni robotiche nello spazio. L’azienda è piccola, fatta di sei ragazzi con il software di progettazione elettrica e sfondi-ma si sta guadagnando slancio. 125.000 dollari NASA contratto è solo una parte di un totale di 1,9 milioni di dollari in finanziamenti e 1,3 milioni di dollari round di investimento che si è chiuso nel mese di febbraio.

Il loro approccio è quello di utilizzare la GPU abilitata di apprendimento automatico e di dare gli esseri umani migliori di controllo di robot comandato a distanza. Se il robot può essere controllato a distanza con più precisione, possono essere utilizzati per più attività nello spazio, come la manutenzione satelliti e stazioni spaziali, esplorare pianeti, o all’eventuale costruzione di habitat per gli esseri umani. Se siamo in grado di video-giochi con bassa latenza e feedback tattile, si dovrebbe anche essere in grado di controllare i robot non strutturati in impostazioni.

image-2017-05-31-at-1-34-56-pm.jpg
(Immagine: BluHaptics)

“Stiamo facendo GPU, quindi è molto rapida elaborazione dei dati ad alta risoluzione in near-realtime,” Pickering spiega.

In qualsiasi momento si parla di automazione, l’obiettivo è quello di prendere più pericolosi e compiti di routine lontano da esseri umani, in modo che la nostra intelligenza può essere riservato ad attività più creative. Meglio i robot potrebbero aiutare gli astronauti a concentrarsi su come superare gli ostacoli e risolvere i tipi di problemi che non possono essere previsti.

“C’è questo divario che esiste tra il manuale di controllo di robot e automazione”, Pickering, dice. “Stiamo vedendo sensori meglio e meglio l’hardware, ma di fare in computer vision e di controllo è sempre stata una specie di disparati e da collegare quello che un robot vede per quello che fa, siamo in grado di realizzare attività complesse, più facilmente, e consentono agli utenti di eseguire i compiti più facilmente e raggiungere un livello di sicurezza e di efficienza che non era possibile prima.”

Storie correlate:

Walmart il drone consegna al piano comprende blockchain techDrone regolamenti sono in airWatch questo stampato in 3D robot piedi sulla sabbia