Apples AR-headset använder enligt uppgift 3D-sensorer för handspårning

0
205

Apples allmänt ryktade kommande mixed reality-headset kommer att använda 3D-sensorer för avancerad handspårning, enligt analytikern Ming-chi Kuo, vars senaste forskningsanteckning har rapporterats om av MacRumors och 9to5Mac. Headsetet sägs ha fyra uppsättningar 3D-sensorer, jämfört med iPhones enda enhet, vilket borde ge det mer precision än TrueDepth-kamerauppsättningen som för närvarande används för Face ID.

Enligt Kuo kan de strukturerade ljussensorerna upptäcka föremål såväl som “dynamisk detaljförändring” i händerna, jämförbart med hur Face ID kan räkna ut ansiktsuttryck för att generera Animoji. “Att fånga detaljerna i handrörelser kan ge ett mer intuitivt och levande användargränssnitt mellan människa och maskin”, skriver han och ger exemplet med en virtuell ballong i din hand som flyger iväg när sensorerna upptäcker att din näve inte längre är knuten. Kuo tror att sensorerna kommer att kunna upptäcka föremål från upp till 200 procent längre bort än iPhones Face ID.

Relaterat

Oculus Quest 2 recension: bättre, billigare VR

Metas Quest-headset kan spåra hand, men det är inte en kärnfunktion i plattformen och den är beroende av konventionella monokroma kameror. Kuos anteckning nämner inte om Apples headset kommer att använda fysiska kontroller såväl som handspårning. Bloomberg rapporterade i januari att Apple testade handspårning för enheten.

Kuo gav även denna vecka lite detaljer om vad som kan komma efter Apples första headset. Medan han förväntar sig att den första modellen ska väga runt 300-400 gram (~0,66-0,88lbs), sägs en “betydligt lättare” andra generationens modell med ett uppdaterat batterisystem och snabbare processor vara planerad till 2024. Den första modellen kommer någon gång nästa år, enligt Kuo, och Apple förväntar sig enligt uppgift att sälja cirka tre miljoner enheter 2023. Det tyder på att den ursprungliga produkten mycket väl kan vara dyr och riktad till tidiga användare.