Meta CTO pensa che una cattiva moderazione del metaverso possa rappresentare una “minaccia esistenziale”

0
142

Il CTO di Meta (ex Facebook) Andrew Bosworth ha avvertito i dipendenti che la creazione di esperienze di realtà virtuale sicure era una parte vitale del suo piano aziendale, ma anche potenzialmente impossibile su larga scala.

In una nota interna vista dal Financial Times, Bosworth avrebbe affermato di volere che i mondi virtuali di Meta avessero “livelli di sicurezza quasi Disney”, sebbene gli spazi di sviluppatori di terze parti potrebbero avere standard più flessibili rispetto ai contenuti creati direttamente da Meta. Molestie o altri comportamenti tossici potrebbero rappresentare una “minaccia esistenziale” per i piani dell'azienda per un futuro Internet incarnato se disattivasse la realtà virtuale per i consumatori tradizionali.

Allo stesso tempo, Bosworth ha affermato che controllare il comportamento degli utenti “a qualsiasi scala significativa è praticamente impossibile”. La giornalista di FT Hannah Murphy ha poi twittato che Bosworth stava citando il teorema dell'impossibilità di Masnick: una massima, coniata dal fondatore di Techdirt Mike Masnick, che dice che “la moderazione dei contenuti su larga scala è impossibile da fare bene”. (La scrittura di Masnick osserva che questo non è un argomento contro la spinta per una migliore moderazione, ma i grandi sistemi “finiranno sempre per frustrare segmenti molto ampi della popolazione.”)

I mondi virtuali potrebbero avere “una maggiore propensione verso l'applicazione”

Bosworth apparentemente suggerisce che Meta potrebbe moderare spazi come la sua piattaforma Horizon Worlds VR utilizzando una versione più rigorosa delle sue regole comunitarie esistenti, affermando che la moderazione della realtà virtuale o del metaverso potrebbe avere “una maggiore propensione verso l'applicazione lungo una sorta di spettro di avvertimento, sospensioni successivamente più lunghe e infine espulsione dagli spazi multiutente.”

Sebbene il memo completo non sia pubblicamente disponibile, Bosworth ha pubblicato un post sul blog che allude ad esso nel corso della giornata. Il post, intitolato “Mantenere le persone al sicuro nella realtà virtuale e oltre”, fa riferimento a molti degli strumenti di moderazione VR esistenti di Meta. Ciò include consentire alle persone di bloccare altri utenti in VR, nonché un ampio sistema di sorveglianza Horizon per il monitoraggio e la segnalazione di comportamenti scorretti. Meta ha anche promesso 50 milioni di dollari per la ricerca su questioni pratiche ed etiche attorno ai suoi piani del metaverso.

Come osserva FT, le piattaforme precedenti di Meta come Facebook e Instagram sono state punite per gravi fallimenti di moderazione, tra cui risposte lente e inadeguate ai contenuti che promuovevano l'odio e incitavano alla violenza. Il recente rebranding dell'azienda offre un potenziale nuovo inizio, ma come osserva il promemoria, la realtà virtuale e i mondi virtuali dovranno probabilmente affrontare una serie completamente nuova di problemi oltre a quelli esistenti.

“Spesso avere conversazioni franche internamente ed esternamente sulle sfide che affrontiamo, i compromessi coinvolti e i potenziali risultati del nostro lavoro “, ha scritto Bosworth nel post sul blog. “Ci sono problemi sociali e tecnici difficili in gioco e li affrontiamo quotidianamente.”