Le controversie su Facebook segnalano che la sua intelligenza artificiale non è in grado di rilevare in modo coerente incitamento all'odio o violenza

0
127

Il vicepresidente dell'integrità di Facebook Guy Rosen ha scritto in un post sul blog domenica che la prevalenza dell'incitamento all'odio sulla piattaforma è diminuita del 50% negli ultimi tre anni e che “una narrativa che la tecnologia che usiamo combattere l'incitamento all'odio è inadeguato e il fatto che travisiamo deliberatamente i nostri progressi” era falso.

“Non vogliamo vedere l'odio sulla nostra piattaforma, né i nostri utenti o inserzionisti, e siamo trasparenti sul nostro lavoro per rimuoverlo”, ha scritto Rosen. “Ciò che questi documenti dimostrano è che il nostro lavoro di integrità è un viaggio pluriennale. Anche se non saremo mai perfetti, i nostri team lavorano continuamente per sviluppare i nostri sistemi, identificare problemi e creare soluzioni.”

Il post sembrava essere in risposta a un articolo di domenica sul Wall Street Journal, che ha affermato che i dipendenti di Facebook incaricati di mantenere i contenuti offensivi fuori dalla piattaforma non credono che la società sia in grado di esaminarli in modo affidabile.

Il rapporto del WSJ afferma che i documenti interni mostrano che due anni fa Facebook ha ridotto il tempo in cui i revisori umani si sono concentrati sui reclami per incitamento all'odio e ha apportato altre modifiche che hanno ridotto il numero di reclami. Ciò a sua volta ha contribuito a creare l'impressione che l'intelligenza artificiale di Facebook avesse avuto più successo nel far rispettare le regole dell'azienda di quanto non fosse in realtà, secondo il WSJ.

Un team di dipendenti di Facebook ha scoperto a marzo che i sistemi automatizzati dell'azienda stavano rimuovendo i post che generavano tra il 3 e il 5 percento delle visualizzazioni di incitamento all'odio sulla piattaforma social e meno dell'1 percento di tutti i contenuti che violavano le sue regole contro violenza e incitamento, ha riferito il WSJ.

Ma Rosen ha sostenuto che concentrarsi solo sulla rimozione di contenuti era “il modo sbagliato di guardare al modo in cui combattiamo l'incitamento all'odio”. Dice che la tecnologia per rimuovere l'incitamento all'odio è solo uno dei metodi che Facebook usa per combatterlo. “Dobbiamo essere sicuri che qualcosa sia un discorso di odio prima di rimuoverlo”, ha detto Rosen.

Invece, ha affermato, la società ritiene che concentrarsi sulla prevalenza dei discorsi di odio che le persone vedono effettivamente sulla piattaforma e su come ridurli utilizzando vari strumenti sia una misura più importante. Ha affermato che per ogni 10.000 visualizzazioni di un contenuto su Facebook, c'erano cinque visualizzazioni di incitamento all'odio. “La prevalenza ci dice quali contenuti violano le persone vedono perché li abbiamo persi”, ha scritto Rosen. “È il modo in cui valutiamo più oggettivamente i nostri progressi, poiché fornisce il quadro più completo.”

Ma i documenti interni ottenuti dal WSJ hanno mostrato che alcuni contenuti significativi sono stati in grado di eludere i rilevamento, inclusi video di incidenti automobilistici che mostravano persone con lesioni grafiche e minacce violente contro i bambini trans.

Il WSJ ha prodotto una serie di rapporti su Facebook basati su documenti interni forniti dall'informatore Frances Haugen. Ha testimoniato davanti al Congresso che la società era consapevole dell'impatto negativo che la sua piattaforma Instagram avrebbe potuto avere sugli adolescenti. Facebook ha contestato la segnalazione sulla base dei documenti interni.