Sony håller sitt Technology Day-evenemang för att visa upp vad de har arbetat med i sina FoU-labb, och i år fick vi några fantastiska bilder av teknik som företaget har arbetat med. Mitt i omvälvningarna av PS5:s haptik och 3D-ljud och en demo-rulle av Sonys visserligen fantastiska skärmar för att göra virtuella filmset, fick vi se en robothand som Sony sa kunde räkna ut greppstyrkan beroende på vad den plockade upp, en något dystopiskt klingande “globalt avkänningssystem” och mer.
Det kanske mest intressanta Sony visade upp var ett headset som innehöll OLED-skärmar med “4K-per-inch”-upplösning. Medan headsetet Sony använde i sin presentation mycket tydligt var något avsett för laboratorie- och prototypanvändning, påminde de specifikationer som Sony lade fram för panelerna om ryktena som snurrade runt PlayStation VR 2.
/cdnload.com/cdnscale(vo):nocdnscale.com /chorus_asset/file/23071607/Screen_Shot_2021_12_07_at_16.30.05.png)
De ställer sig dock inte direkt i linje; Sony sa att headsetet det visade upp var 8K, med tanke på 4K-skärmen per öga, och PS VR 2 kommer förmodligen bara att vara 4K totalt sett med 2000 x 2040 pixlar per öga. Ändå är det spännande att Sony arbetar med VR-fokuserade paneler, tillsammans med teknik för latensreducering för dem. I en Q&A-session för journalister svarade Sony inte på frågor om när bildskärmarna skulle dyka upp i en verklig produkt, men sa att olika divisioner redan undersökte hur de kunde integrera dem i produkter.
Sony visade också upp en robotgripare, en mekaniserad tång som kunde användas för att låta en maskin plocka upp föremål. Även om det inte är något nytt, sa Sony att dess version hade förmågan att exakt kontrollera greppstyrkan beroende på vad den höll, låta den hålla saker tillräckligt hårt för att de inte glider (och justera om de börjar falla) utan att krossas ömtåliga föremål som en grönsak eller blomma.

Sony säger att griparen skulle kunna användas för att laga mat eller rada upp föremål i ett skyltfönster, men för att få den funktionalitetsnivån måste den kopplas ihop med ett sätt att flytta och AI som låter den avgöra vilka föremål den behövde plocka upp . Det är svårt att föreställa sig att vi kommer att se den typen av saker offentligt när som helst snart, men det ger en imponerande demo. Det är också trevligt att Sony fick det att se väldigt robotiskt ut snarare än att det ser ut som en hand – jag har fått mig mätt på kusligt mänskliga robotdelar den här månaden.
Sonys presentation hade också några snygga bilder för andra projekt, såväl som en titt på några enheter som vi har sett tidigare. Den visade upp en del maskinlärande supersamplingsteknik (liknande Nvidias DLSS-system), som den sa att den kunde använda för att förbättra upplösning och prestanda för strålspårad rendering. En GIF av Sonys jämförelsebilder skulle förstöra kvaliteten, men du kan kolla in den i videon nedan.

Äntligen pratade Sony om sitt “Mimamori”-system, som det sa är utformat för att vaka över planeten. När jag tittade på presentationen i realtid började jag bli lite orolig när jag såg den här bilden:
):no_updnscale(vox.com/cdnload.com/cdnload /chorus_asset/file/23071665/Screen_Shot_2021_12_07_at_16.56.11.png )
Sony fortsatte med att förklara dock att dess idé var att använda satelliter för att samla in data från sensorer placerade över hela jorden, gjorda för att samla in information om markfuktighet, temperatur och mer. Dess förslag är att det skulle kunna hjälpa forskare att samla information om hur klimatet förändras och hjälpa bönder att anpassa sig till dessa förändringar. Mimamori verkade som om det var närmare en pitch än en prototyp, men det visar att Sony åtminstone undersöker hur det kan utnyttja en del av sin teknik för att hantera klimatförändringarna.
Medan några av idéerna Sony visade upp verkar som moonshots, det är intressant att få en titt på vad Sony gör i sina labb, bortom att skapa PlayStations och Spider-Verse-uppföljare. Även om vi inte får konsumentenheter ur det, har vi åtminstone några ganska coola futuristiska bilder.