Meta, das früher als Facebook bekannte Unternehmen, hielt heute eine Präsentation ab, in der es sein Rebranding ankündigte und zeigte, wie es sich die Zukunft des Computings vorstellen wird – aber bei all dem Flausch hatte es tatsächlich einiges interessante Tech-Demos. Der erste zeigte seine lebensechten Codex-Avatare und eine Umgebung, in der sie existieren konnten, die nach Angaben des Unternehmens in Echtzeit gerendert wurde und auf reale Objekte reagierte. Mark Zuckerberg sprach auch über die Arbeit des Unternehmens mit neuronalen Schnittstellen, mit denen Sie einen Computer durch einfaches Bewegen der Finger steuern können.
Wir werden die Demos gleich besprechen, aber es lohnt sich wirklich sie selbst sehen. Sie können sie sich im Keynote-Archiv von Facebook oder im YouTube-Stream von Reuters ansehen, wenn Sie diese Schnittstelle bevorzugen.

:no_upscale()/cdn.com .-cdn /uploads/chorus_asset/file/22888569/acastro_210929_4779_0001.jpg)
Was ist das Metaverse?
Es hängt davon ab, wen Sie fragen, aber es bezieht sich normalerweise auf eine Reihe von vernetzte digitale Räume, manchmal in VR, manchmal durch ein soziales Netzwerk erlebt und manchmal mit Echtzeit-Referenzpunkten zur physischen Welt. Hier können Sie mehr darüber lesen.
Während der Präsentation zeigte Meta die Arbeit, die es an seinen Codec-Avataren geleistet hat, um den Benutzern eine bessere Kontrolle über ihre Augen, Mimik, Frisur und Aussehen zu geben. Das Unternehmen demonstrierte auch die Fähigkeit, zu simulieren, wie Haare und Haut des Avatars auf unterschiedliche Lichtverhältnisse und Umgebungen reagieren und sogar wie es an interaktiver Kleidung funktioniert.
Der Moderator machte sehr deutlich, dass diese Technologie „immer noch ganz eindeutig Forschung“ ist, und es ist kein Wunder – es ist eine immense Menge an Hardware erforderlich, um einen der Avatare zu erstellen, und Meta verwendet wahrscheinlich sehr leistungsstarke Computer, um ihn zu rendern. Aber es ist zumindest aufregend zu sehen, dass Metas Ziel darin besteht, uns mit Grafiken rendern zu lassen, die dem entsprechen, wozu hochmoderne Videospiel-Engines in der Lage sind.

Das Unternehmen zeigte auch sein Echtzeit-Rendering der Umgebung, von dem es sagte, dass es schließlich ein Ort sein würde, an dem Sie Ihren Avatar verwenden können, um mit anderen zu interagieren. Das System lässt Menschen auch mit realen Objekten interagieren, wobei sich die Veränderungen in der virtuellen Welt widerspiegeln. Während realistische Umgebungen nichts Neues sind, ist die Möglichkeit, Änderungen an ihnen in der realen Welt vorzunehmen und diese Änderungen in einer virtuellen Umgebung zu sehen, eine wirklich coole Demo (auch wenn die Tracking-Punkte, die den realen Objekten hinzugefügt werden, etwas ablenken inwieweit sie auffallen).

Was die neuronale Schnittstelle betrifft, so verlässt sich Meta auf etwas, das Elektromyographie oder EMG genannt wird, um die Signale, die Ihr Gehirn an Ihre Hand sendet, in Computerbefehle umzuwandeln. Es zeigte das Armband, mit dem es Anfang des Jahres dazu verwendet wurde, und die Demo, die Meta heute präsentierte, zeigte nicht wirklich etwas, was 2019 nicht auf dem Markt war, als es eine Firma namens CTRL-Labs kaufte und seine Technologie erwarb, aber es ist immer noch gut zu sehen, dass daran gearbeitet wird.

Meta hat gesagt, dass es EMG-Input anstelle von Gehirnlesegeräten verfolgt, also hat es möglicherweise gezeigt, wie Sie mit seinen zukünftigen Geräten interagieren. Verglichen mit Visionen von Leuten, die VR-Ping-Pong für ein Publikum von Avataren spielen, fühlte sich dies wie das realistischste an, was Meta am Donnerstag gezeigt hat. Das bedeutet nicht, dass die Oculus (äh, Meta, anscheinend) Quest 3 mit einem EMG-Armband geliefert wird, aber in einem Meer von Hype ohne viel Substanz waren seine Demo und die andere aktuelle Forschung, die Meta zeigte, ein Anblick für wunde Augen. Schau sie dir an, wenn du eine Pause vom Rest der Facebook-/Meta-Nachrichten suchst.