Meta CTO pense qu'une mauvaise modération du métaverse pourrait constituer une “menace existentielle”

0
198

Le directeur technique de Meta (anciennement Facebook) Andrew Bosworth a averti les employés que la création d'expériences de réalité virtuelle sécurisées était un élément essentiel de son plan d'affaires, mais aussi potentiellement impossible à grande échelle.

Dans une note interne vue par le Financial Times, Bosworth a apparemment déclaré qu'il souhaitait que les mondes virtuels Meta aient “des niveaux de sécurité presque Disney”, bien que les espaces de développeurs tiers puissent avoir des normes plus souples que le contenu directement construit par Meta. Le harcèlement ou tout autre comportement toxique pourrait constituer une « menace existentielle » pour les plans de l'entreprise pour un futur Internet incarné s'il détournait les consommateurs grand public de la réalité virtuelle.

Dans le même temps, Bosworth a déclaré qu'il est pratiquement impossible de contrôler le comportement des utilisateurs “à n'importe quelle échelle significative”. La journaliste du FT Hannah Murphy a tweeté plus tard que Bosworth citait le théorème d'impossibilité de Masnick : une maxime, inventée par le fondateur de Techdirt, Mike Masnick, qui dit que « la modération du contenu à grande échelle est impossible à bien faire ». (L'écriture de Masnick note que ce n'est pas un argument contre la promotion d'une meilleure modération, mais les grands systèmes « finiront toujours par frustrer de très larges segments de la population. »)

Les mondes virtuels pourraient avoir « un biais plus fort envers l'application »

Bosworth suggère apparemment que Meta pourrait modérer des espaces comme sa plate-forme Horizon Worlds VR en utilisant une version plus stricte de ses règles communautaires existantes, affirmant que la modération VR ou métaverse pourrait avoir «un parti pris plus fort vers l'application le long d'une sorte de spectre d'avertissement, des suspensions successivement plus longues, et finalement expulsion des espaces multi-utilisateurs.”

Bien que le mémo complet ne soit pas accessible au public, Bosworth a publié une entrée de blog y faisant allusion plus tard dans la journée. Le message, intitulé « Assurer la sécurité des personnes en VR et au-delà », fait référence à plusieurs des outils de modération VR existants de Meta. Cela inclut de permettre aux gens de bloquer d'autres utilisateurs en VR, ainsi qu'un système de surveillance Horizon étendu pour surveiller et signaler les mauvais comportements. Meta a également promis 50 millions de dollars pour la recherche sur les problèmes pratiques et éthiques autour de ses plans de métaverse.

Comme le note FT, les anciennes plateformes de Meta comme Facebook et Instagram ont été fustigées pour de graves échecs de modération, notamment réponses lentes et inadéquates aux contenus qui encouragent la haine et incitent à la violence. Le récent changement de marque de l'entreprise offre un nouveau départ potentiel, mais comme le note le mémo, la réalité virtuelle et les mondes virtuels seront probablement confrontés à un tout nouvel ensemble de problèmes en plus des problèmes existants.

“Nous avons souvent avoir des conversations franches en interne et en externe sur les défis auxquels nous sommes confrontés, les compromis impliqués et les résultats potentiels de notre travail », a écrit Bosworth dans le billet de blog. « Il y a des problèmes sociétaux et techniques difficiles en jeu, et nous les affrontons quotidiennement. »