Zero

Sensori, tra cui la telecamera di profondità, in originale HoloLens.
Immagine: Microsoft
La prossima generazione di HoloLens è un sensore di impresa, di ricerca e di progettazione che cram elaborazione avanzata del segnale di silicio e di ingegneria in un piccolo, affidabile modulo che è intenzione di Microsoft di vendere a clienti e di altri produttori come Progetto Kinect per Azure. La società potrà inoltre utilizzare il nuovo sensore di propri prodotti, tra cui il prossimo HoloLens.
A Costruire questo anno, Satya Nadella aveva promesso di essere “il più potente sensore con la minor quantità di rumore”, e con un ultra-ampio campo di vista. E ‘ abbastanza piccolo e a bassa potenza sufficiente per l’uso in dispositivi mobili. Ma che cosa significa che il sensore di fare, e come un HoloLens (o altro uso) di ‘vedere’ il mondo in cui si mescola ologrammi 3D?
Ci sono diversi modi per misurare la profondità. Alcuni ricercatori hanno cercato di utilizzare gli ultrasuoni, mentre il tradizionale metodi geometrici uso proprio strutturato modelli di luce, stereo — con due fasci di luce che colpisce l’oggetto stesso, è possibile calcolare la distanza dall’angolo tra le travi. Microsoft ha stereoscopico sensori in passato, ma questa volta ha preso un approccio diverso chiamato ‘phased a tempo di volo’.
Ciro Bamji, l’hardware architetto che ha portato la squadra a costruire Microsoft prima del tempo di volo (ToF) della fotocamera sensore Kinect che è venuto con Xbox One, ha spiegato ZDNet come il nuovo sensore funziona.
Si parte da illuminare la scena con un numero di laser, con circa 100 milliwatt di potenza ciascuna, che agiscono come un proiettore. È uniforme ovunque, copre tutta la scena a una volta e si accende e si spegne molto velocemente.
Come la luce del laser rimbalza oggetti 3D come i muri e le persone, si riflette indietro al sensore. La distanza non si misura direttamente dalla rapidità con cui la luce viene riflessa (come una pistola radar), ma da quanto la fase di luce busta che torna è spostata dal segnale originale che il laser emette. Confrontare la differenza di fase (rimozione di eventuali armoniche introdotte da lievi variazioni di tensione o di temperatura per pulire il segnale lungo la strada), e si ottiene una misurazione estremamente precisa di quanto lontano il punto è che la luce riflessa.
Che profondità di informazioni non è solo utile per la scala di ologrammi essere la giusta dimensione come si guarda intorno in una realtà mista; è anche fondamentale per la realizzazione di computer visione più accurata. Pensare di trucco fotografie di gente che spinge oltre la Torre Pendente di Pizza: con una telecamera di profondità si può immediatamente vedere che è un trick shot.
Microsoft phased a tempo di volo sensori sono piccole e abbastanza sottile per adattarsi in piccoli dispositivi mobili, e robusto abbastanza per andare in consumatore gadget che potrebbe avere bussato intorno. Questo perché, a differenza di stereo, sistemi di visione, non sono costosi ottica di precisione che devono essere conservati in un preciso allineamento: possono far fronte con un segnale fatto più rumore del solito con la tensione della corrente elettrica a immersione leggermente o gli impianti di riscaldamento, utilizzo di semplici calcoli che richiedono meno potenza di elaborazione di algoritmi complessi, necessaria per la stereo visione calcoli.
A seconda di come si desidera utilizzare, il sensore permette di scegliere diverse classi di profondità, frame rate e la risoluzione dell’immagine, così come la scelta di una media o grande campo di vista.
La prossima generazione di HoloLens sensore in azione a Microsoft 2018 di Ricerca di Facoltà Vertice.
E, meglio di tutti, a fasi ToF sensori di silicio che può essere prodotta in massa e ad alto volume in un fab, l’utilizzo di standard di processi CMOS a basso costo. Che è proprio quello che avete bisogno di per un prodotto di consumo, o qualcosa di abbastanza a buon mercato per andare in sistemi industriali su larga scala.
Piccolo, veloce ed economico
Il nuovo sensore di una serie di innovazioni tecniche: potenza inferiore, maggiore è la frequenza, maggiore risoluzione di 1.024 1.024 pixel), e pixel più piccoli che determinare la profondità in modo più accurato da lontano. Spesso, i miglioramenti in una zona di media trade-off in altri, la frequenza e la distanza, per esempio. “Si scopre che se si aumenta la frequenza, è di ottenere una migliore risoluzione; maggiore è la frequenza, minore è il jitter, ma anche un più piccolo e più piccolo intervallo di funzionamento,” Bamji spiega.
Una bassa frequenza copre una distanza maggiore dal sensore, ma è meno preciso. Il problema è che mentre una frequenza più alta ottiene risultati più precisi, tali risultati saranno gli stessi per più di distanze — perché le letture che torna con una curva che si ripete più e più volte. Ad una frequenza di 50 mhz, la luce rimbalza fuori qualcosa di 3 metri di distanza è la stessa fase come la luce che rimbalza su un oggetto di metri 6 o 9 metri di distanza.
Il team di Microsoft ha utilizzato un abile matematico trucco (chiamato fase di svolgimento) per evitare che la confusione in modo che potessero aumentare la frequenza e anche funzionare a distanze più lunghe. Il sensore utilizza più frequenze diverse allo stesso tempo e il firmware combina i risultati. Che potrebbe essere basse frequenze che dire, approssimativamente, dove qualcosa si e alte frequenze, per individuare con precisione, o di alta differenti frequenze diverse fasi in modo che solo a distanza. In questo modo, dice Bamji, “siamo stati in grado di continuare ad aumentare la frequenza e ottenere una migliore e una migliore accuratezza e ancora mantenere il range di funzionamento. Abbiamo trovato un modo per avere la torta e mangiarla troppo!”
Phase unwrapping ha permesso alla squadra di prendere la frequenza del sensore con il solo 20MHz in prime ricerche, a 320MHz. Frequenze più alte consentire al sensore di avere pixel più piccoli, che offrono una migliore risoluzione di profondità nell’immagine 3D. Il nuovo sensore ha una risoluzione abbastanza elevata per mostrare le rughe in vestiti di qualcuno come camminare passato la fotocamera o la curva di un tavolo da ping-pong, palla a volo-a soli 2 cm dal centro verso il bordo — da un metro di distanza, e il tutto senza ridurre le prestazioni e la precisione del sensore il modo in pixel più piccoli a bassa frequenza.
La quarta generazione phased a tempo di volo sensore è in grado di raccogliere la curva di una pallina da ping-pong come si vola attraverso l’aria.
Immagine: Microsoft / IEEE
Piccoli pixel hanno un altro grande vantaggio: il sensore può essere più piccolo. “Se si dispone di piccoli pixel, che porta ottica risma,” Bamji punti. “La nostra matrice è piccolo, il che significa che si può andare in dispositivi che sono sottili.”
Il nuovo sensore, inoltre, riesce a consegnare piccolo, preciso pixel utilizzando solo un ottavo del consumo di versioni precedenti (il complessivo sistema di alimentazione è tra i 225 e i 950 milliwatt). Si tratta di un trade-off che Bamji caratterizza come equivalente alla Legge di Moore. “Se hai appena messo in potenza sufficiente è possibile ottenere una buona qualità, ma per un prodotto di consumo che non è abbastanza buono. Si aumenta la frequenza e che brucia di più potenza, ma aumenta la precisione e quindi si diminuisce la dimensione del pixel. Come si passa attraverso il ciclo, si finisce dove si erano, ma con pixel più piccoli.”
I pixel dell’imaging array iniziato a 50 da 50 micron. Che è andato giù a 15 e poi a 10 micron, e ora i pixel sono solo 3,5 3,5 micron ciascuno. Più grande i pixel di una fotocamera del proprio smartphone, che sono di solito da 1 a 2 micron quadrato, mentre lo stato dell’arte per sensori RGB è di circa 0.8 micron quadrato.
D’altra parte, i pixel del sensore Microsoft hanno un otturatore globale. Invece di un fisico di copertura che si ferma più la luce, per impedirgli di interferire con la luce riflessa che è già stata catturata dal sensore, un otturatore globale è una caratteristica costruito a destra in silicio che racconta il sensore di spegnimento e smettere di essere sensibili alla luce fino a quando è il momento di prendere la misura successiva. Alla fine del 2017, il più piccolo pixel globale persiane erano circa 3 micron quadrato, ma non hanno il tempo di volo del sensore che questo si fa.
Un complesso di silicio danza
Tuttavia, i pixel di questo piccolo possibile eseguire in meccanica quantistica problemi con ottenere elettroni di andare dove si vuole. Il sensore rileva la luce attraverso la raccolta di foto oneri che esso si trasforma in tensione, e quelli devono essere misurati con precisione.
Bamji confronta il problema per il gonfiaggio di un pneumatico. Quando si rimuove la pompa e mettere il tappo, un po ‘ d’aria torna sempre fuori. La stessa cosa accade quando si reimposta la parte del sensore di cui la foto è carica di archiviazione: alcuni di carica può ottenere risucchiato in quanto il reset avviene, in quello che chiama kTC rumore (che è un eufemismo per la formula utilizzata per calcolare la quantità di rumore che possono essere aggiunti al segnale). La quantità di carica che viene risucchiato indietro nella carica varia, non è possibile correggere automaticamente.
kTC rumore si verifica solo in cui la carica può fluire in entrambe le direzioni — aria può tornare indietro di un pneumatico, ma la sabbia non può scorrere indietro fino in cima la metà di una clessidra. Se c’è un completo trasferimento di carica, non si ottiene il rumore.
Così il team di Microsoft ottiene risolvere il problema con la memorizzazione di foto oneri di ciò che sono chiamati minoranza vettori — il meno comune, per la carica di trasporto di particelle nel semiconduttore che si muovono più lentamente. Per la conversione di tali oneri per una tensione che può essere letta, sono trasferiti in quello che viene chiamato un galleggiante di diffusione. Il sensore ripristina il galleggiante diffusione e misura la tensione immediatamente dopo il reset, poi si sposta la foto la carica del galleggiante diffusione e misure il nuovo tensione. Sottraendo il primo valore — prese subito dopo il reset — aggira il problema del kTC rumore.
Il nuovo sensore è la prima volta-di-volo-sistema per l’utilizzo di questa tecnica, che aumenta la complessità di silicio ingegneria necessaria. “Ma abbiamo avuto a che fare, perché i pixel sono sempre più piccoli e più piccoli, questo problema diventa sempre più acuta,” Bamji spiega.
Quando si ottiene tutto il senso giù a ciascuno (piccola) di pixel, si compone di due incastro polisilicio ‘photofingers’ per pixel (precedenti generazioni di sensore avuto quattro o otto dita, ma c’è spazio solo per due dita nel nuovo, più piccolo pixel).
Le dita, a turno, per generare un basso o alto (3.3 v) carica elettrica. Questa è una ‘deriva’ di campo che rende fotoni deriva verso il dito che genera l’alta carica più velocemente di quanto normalmente si diffondono attraverso il materiale. Hanno bisogno di muoversi velocemente, perché al completo 320MHz l’altro dito prende il sopravvento dopo 2 nanosecondi e gli oneri che non sono stati catturati non sono utili. A 320MHz, il 78 per cento degli oneri fare tutta la strada per il dito corretto.
Questo dito, struttura che la rende sensori di semplice realizzazione, anche se per pochi fab hanno alcuna esperienza nella creazione di questo nuovo tipo di dispositivo di silicio, perché è molto meno sensibile rispetto ad altri tipi di tempo-di-volo sensori di eventuali difetti nel processo CMOS. “Stiamo costruendo un pezzo di silicio di CMOS, ma a differenza degli altri pezzi di silicio sullo stesso chip,” Bamji dice. “Si tratta di uno standard di processo CMOS, ma stiamo costruendo una struttura che, a differenza di qualsiasi altro transistor.”
Nel mondo reale
Dopo tutto il lavoro per rendere i pixel più piccoli, si scopre che i pixel più piccoli non sono l’ideale per ogni scena. Quindi, per rendere il sensore più flessibile, si può simulare di avere un numero maggiore di pixel raggruppamento di quattro pixel in uno e leggendo i valori da loro, allo stesso tempo (il termine tecnico è ‘raggruppamento’). Che la dimensione dei pixel funziona meglio dipende da quanto lontano le cose sono e quanto la luce laser fa tornare alla matrice del sensore.
“Se si dispone di un oggetto che è vicino con un sacco di luce, che può permettersi di avere dei piccoli pixel. Se si desidera ad alta risoluzione per il riconoscimento facciale, se è seduta 60cm di distanza da voi e hai un sacco di luce, si desidera piccolo pixel”, dice Bamji. “Considerando che se stai guardando un oggetto che è molto lontano, in fondo alla stanza, si potrebbe non essere in grado di vedere con precisione con il piccolo pixel e pixel più grandi sarebbe meglio. Dove stai morendo di fame per la luce laser o la luce laser è stato danneggiato dalla luce del sole, avete bisogno di più pixel.”
Il global shutter consente di seguito, ma quanto di un problema di luce solare o di altra luce ambiente? Seduto in una sala conferenze di Microsoft Silicon Valley campus nel pomeriggio, Bamji stime l’illuminazione è di 200-300 lux; brillante luce del sole che entra attraverso la finestra potrebbe richiedere fino a 300 o 400 lux. “La nostra spec è fino a 3.000 lux, e le funzioni della fotocamera fino a circa 25.000 lux. All’aperto sulla spiaggia a mezzogiorno con il sole a tutto spiano da qualche parte, come Cancun, che 100.000 lux”.
Ovviamente è una cosa che non sarà in grado di testare fino a quando i prodotti sono disponibili, ma la demo che abbiamo visto in normali ambienti di lavoro sembrano sopportare quelle cifre (e se siete stati in spiaggia, non si sarà in grado di vedere una schermata).
Quanto costoso è così veloce, potente sensore? Che dipende dai volumi di produzione, ma se è abbastanza popolare per essere realizzati in grandi numeri, Bamji si aspetta di essere ‘accessibile’ — “a prezzi Accessibili, chip-saggio, significa una sola cifra. Questo contiene silicio e un laser, e di volumi elevati e tali sono anche le cifre singole.”
Che cosa è ancora in aria è ciò che i dispositivi di là di HoloLens, vedremo il nuovo sensore, che dovrebbe vendere abbastanza per portare il prezzo verso il basso attraverso economie di scala.
Progetto Kinect per Azure.
Immagine: Microsoft
Microsoft sembra insolitamente aperto a vendere il sensore di altri produttori di hardware, ma di partner industriali sono suscettibili di essere i primi acquirenti, che, attraverso il Progetto Kinect per Azure. Immaginate un industriale di riconoscimento delle immagini della fotocamera, che potrebbe vedere tutta la strada sul retro del frigorifero, per la verifica delle scorte, con built-in macchina per imparare a riconoscere cosa c’è in frigo. Dispositivi del genere sono un esempio ideale di ‘intelligent edge’ che Microsoft è così appassionato di parlare, e se questo sensore può essere effettuata a scala di a buon mercato come dire che una fotocamera del proprio smartphone, vedremo un sacco di dispositivi che sfruttano preciso di imaging 3D.
RECENTI E RELATIVI CONTENUTI
Microsoft bagarini HoloLens affitto, commerciale utilizza per mixed reality
Microsoft AR/VR pendolo sembra essere l’oscillazione verso sottolineando il potenziale utilizzo in azienda di HoloLens e mixed reality cuffie.
Microsoft continua la sua ricerca per il HoloLens graal
La società rimane davanti a una miriade di concorrenti con la sua realtà aumentata auricolare, che possa giustificare la spesa per le applicazioni mission-critical. Mainstream, tuttavia, richiede più di una migliore, più economico di hardware.
Microsoft offre Windows 10 aprile 2018 Aggiornamento per HoloLens
Microsoft sta iniziando a stendere il suo primo Windows 10 funzionalità di aggiornamento per HoloLens dal 2016, in anteprima due nuovi first-party di app per il business disponibili per il dispositivo.
Potrebbe Microsoft HoloLens rivoluzionare il business? (TechRepublic)
Microsoft HoloLens, in grado di trasformare l’enterprise. Ma che cosa è esattamente HoloLens, e perché è unico?
Microsoft HoloLens: Cheat sheet (TechRepublic)
Non è solo Microsoft HoloLens assumere VR cuffie? Non a tutti. Ecco cosa business pro devi sapere su HoloLens.
Argomenti Correlati:
Microsoft
CXO
La Trasformazione Digitale
Settore Tech
Smart Cities
Cloud
0