Meta-CTO glaubt, dass eine schlechte Metaverse-Moderation eine „existentielle Bedrohung“ darstellen könnte

0
138

Andreas Bosworth, CTO von Meta (ehemals Facebook), warnte die Mitarbeiter, dass die Schaffung sicherer Virtual-Reality-Erlebnisse ein wichtiger Teil ihres Geschäftsplans sei – aber auch in großem Umfang potenziell unmöglich.

In einem internen Memo der Financial Times sagte Bosworth offenbar, er wolle, dass virtuelle Meta-Welten “fast Disney-Sicherheitsniveaus” haben, obwohl Räume von Drittentwicklern lockerere Standards haben könnten als direkt von Meta erstellte Inhalte. Belästigung oder anderes toxisches Verhalten könnten eine „existentielle Bedrohung“ für die Pläne des Unternehmens für ein verkörpertes zukünftiges Internet darstellen, wenn es Mainstream-Konsumenten von VR abhält.

Gleichzeitig sagte Bosworth, dass es praktisch unmöglich ist, das Nutzerverhalten in einem sinnvollen Umfang zu überwachen. Die FT-Reporterin Hannah Murphy twitterte später, dass Bosworth Masnicks Unmöglichkeitstheorem zitierte: eine Maxime, die vom Techdirt-Gründer Mike Masnick geprägt wurde und besagt, dass „Inhaltsmoderation in großem Maßstab unmöglich gut zu machen ist“. (Masnicks Schreiben stellt fest, dass dies kein Argument gegen eine bessere Mäßigung ist, aber große Systeme werden „am Ende immer sehr große Teile der Bevölkerung frustrieren.“) Virtuelle Welten könnten „eine stärkere Tendenz zur Durchsetzung“ haben.

Bosworth schlägt anscheinend vor, dass Meta Räume wie seine Horizon Worlds VR-Plattform unter Verwendung einer strengeren Version seiner bestehenden Community-Regeln moderieren könnte, und sagt, VR- oder Metaverse-Moderation könnte „eine stärkere Tendenz zur Durchsetzung entlang einer Art von Warnungen, sukzessiv längeren Aussetzungen und“ haben letztendlich Ausschluss aus Mehrbenutzerbereichen.“

Obwohl das vollständige Memo nicht öffentlich verfügbar ist, hat Bosworth später am Tag einen Blogeintrag veröffentlicht, der darauf anspielt. Der Beitrag mit dem Titel „Die Sicherheit von Menschen in VR und darüber hinaus“ verweist auf mehrere der bestehenden VR-Moderationstools von Meta. Dazu gehört, dass Personen andere Benutzer in VR blockieren können, sowie ein umfangreiches Horizon-Überwachungssystem zur Überwachung und Meldung von schlechtem Verhalten. Meta hat außerdem 50 Millionen US-Dollar für die Erforschung praktischer und ethischer Fragen im Zusammenhang mit seinen Metaverse-Plänen zugesagt.

Wie FT feststellt, wurden die älteren Plattformen von Meta wie Facebook und Instagram wegen schwerwiegender Moderationsfehler gerügt, einschließlich langsame und unangemessene Reaktionen auf Inhalte, die zu Hass und Gewalt aufstacheln. Das kürzliche Rebranding des Unternehmens bietet einen möglichen Neuanfang, aber wie das Memo anmerkt, werden VR und virtuelle Welten wahrscheinlich zusätzlich zu den bestehenden Problemen mit völlig neuen Problemen konfrontiert sein.

„Wir haben oft Führen Sie intern und extern offene Gespräche über die Herausforderungen, denen wir gegenüberstehen, die damit verbundenen Kompromisse und die potenziellen Ergebnisse unserer Arbeit“, schrieb Bosworth in dem Blogbeitrag. „Es gibt schwierige gesellschaftliche und technische Probleme, mit denen wir uns täglich auseinandersetzen.“