Facebook fakes de onscherpte met AI te maken VR meer echt

0
101

Nul

Facebook, het bedrijf dat bracht je de Oculus Rift virtual reality headset, is het nastreven van machine learning op te lossen een aantal van de tekortkomingen van het medium.

In het bijzonder, VR headsets last van het fenomeen van de zogenaamde “vergence-accommodatie conflict,” of VAC, waar wat je ziet door middel van een display ingedrukt tot dicht bij uw ogen niet overeenkomt met hoe je hersenen weet dingen moeten kijken in de verte. (Een mooi essay over het onderwerp is opgesteld door Adrienne Jager over op Medium.)

Tenminste, dat betekent een minder realistische ervaring in de VR; meer serieus, het kan leiden tot fysieke ongemak in de drager van Breuk of een ander apparaat.

Ook op: Facebook Oculus onderzoek ambachten vreemde mashup van John Oliver en Stephen Colbert

In een blog post, ingenieurs van Facebook is Facebook Reality Lab beschrijven hoe zij in staat geweest om te trainen één neuraal netwerk selectief vervaging van de onderdelen van een 3-D-scene om het overwinnen van de VAC.

Hun uitvinding, de zogenaamde DeepFocus, werd voor het eerst getoond op de “Oculus Connect” conferentie van dit jaar. Nu, ze hebben geplaatst de code voor DeepFocus online in met een open-source licentie.

facebook-adaptive-blur-dec-2018.png

Facebook zegt de selectieve vervaging van de objecten in het gezichtsveld in een VR-headset is een verbetering van wat wordt bereikt door het standaard vervagen technieken in video game rendering engines zoals Unity.

Facebook

DeepFocus werkt met een speciale prototype headset die de Reality Lab team is de ontwikkeling over de afgelopen drie jaar, de zogenaamde “Half Dome”, dat is een voorbeeld van een “varifocal” head-mounted display. In tegenstelling tot de standaard Rift en andere VR-kits, varifocals hebben de eye-tracking camera ‘ s en lenzen die zijn geplaatst op actuators vooruit en achteruit. Hierdoor kunt u de headset aanpassen van de “diepte van de focus” door het verplaatsen van de afbeelding als de gebruiker blik beweegt.

Maar hardware alleen is niet genoeg: het apparaat moet nog software om de aard van de onscherpe achtergrond dat de hersenen verwacht, in plaats van, zoals de manier waarop de huidige iPhone X en Pixel telefoon achtergrond “bokeh” in foto ‘ s. De combinatie van hardware en software, dat nauwkeurig het gevoel van diepte in het VR is een onderdeel van een opkomende veld van studie genaamd “Computational Geeft.”

Ook op: Facebook wil meer boeiende aan mensen in de laatste AI-onderzoek

Zoals beschreven in de formele paper, gepresenteerd op de SIGGRAPH conferentie en online geplaatst, voorafgaande benaderingen gecombineerd meerdere projectoren in de fysieke headset met de gevestigde grafische techniek van ray-tracing voor het genereren van beelden op een groot aantal hoeken als de gebruiker beweegt. Maar die aanpak is rekenkundig zwaar, waardoor het omslachtig voor real-time effecten die pas als de gebruiker verschuift hun blik.

Voer DeepFocus, die gebruik maakt van een convolutional neurale netwerk, of CNN, het werkpaard van zoveel machine learning taken. Een CNN meestal combineert “pooling” lagen die helpen bij het opstellen van het hoger niveau, met de ontdekking van de eigenschappen van een afbeelding. In dit geval, de onderzoekers vervangen die lagen met wat zij noemen “interleaving” en “de-interleaving” lagen die ervoor zorgen dat sommige van de grove, lage-resolutie-informatie over de beelden.

Zo schrijven ze, “we introduceren de interleaving laag om opzettelijk slechter de input van beelden in hoge resolutie voor het voeren van hen in convolutional lagen.”

Deze nieuwe neurale net is opgeleid door het bloot te stellen aan veel beelden gemaakt door de “scene generator software”, met regelingen van objecten in complexe lay-outs met een occlusie die lagen creëren van diepte. Elk van 4,900 “stacks” bevat veertig versies van een afbeelding met de verschillende diepten van het veld.

Het netwerk wordt gevoed het beeld stacks, een “diepte-kaart” en iets als een ‘cirkel van verwarring” dat geeft het netwerk een aanwijzing naar de mate van vervaging van de afbeelding. Het netwerk leert te maken van een doel-wazig-uitvoer via de gradient descent.

Moet lezen

‘AI is heel, heel stom,’ zegt Google AI leider (CNET)Baidu maakt Kunlun silicium voor AIUnified Google AI afdeling een duidelijk signaal van AI ‘ s toekomst (TechRepublic)

De auteurs schrijven dat hun wazige beelden meer “fysiek realistisch” in hun vaagheid dan zijn bewogen foto ‘ s gemaakt door de gebruikte Eenheid video game software development tool.

Interessant is dat de auteurs belijden twee gevallen waarin DeepFocus is overdonderd. In het geval van semi-transparante glazen oppervlakken en spiegels, zij verslag, het netwerk is niet in staat te achterhalen van de juiste diepte van de focus, in plaats van het maken van dingen zoals een object dat moet worden achter glas, en dus wazig, hebben geen onscherpte te zien. Als ze uit, “zijn er geen één juiste diepte waarden” in dergelijke scènes. “Deze storing gevallen moeten de rijkere informatie voor fysiek nauwkeurige schatting en verlaten we dit voor de toekomst van werk”, schrijven ze.

Vorige en aanverwante dekking:

Wat is AI? Alles wat je moet weten

Een executive gids voor kunstmatige intelligentie, van machine learning en algemene AI-neurale netwerken.

Wat is diep leren? Alles wat je moet weten

De lowdown op diep leren: van hoe het zich verhoudt tot het bredere veld van machine-leren door te zien hoe aan de slag met het.

Wat is machine learning? Alles wat je moet weten

In deze gids wordt uitgelegd wat ‘machine learning’ is, hoe het is in verband met kunstmatige intelligentie, hoe het werkt en waarom het belangrijk is.

Wat is cloud computing? Alles wat u moet weten over

Een introductie van cloud computing recht vanaf de basis tot IaaS en PaaS -, hybride -, public en private cloud.

Verwante Onderwerpen:

Virtual Reality

Digitale Transformatie

CXO

Het Internet van Dingen

Innovatie

Enterprise Software

0