Twitter ha annunciato la sua prima sfida algoritmica al bias bounty, offrendo prezzi in contanti che vanno da $ 500 a $ 3.500 per coloro che possono aiutare il gigante dei social media a identificare una serie di problemi.
Dopo un significativo contraccolpo lo scorso anno, la società ha ammesso a maggio che il suo algoritmo di ritaglio automatico ha ripetutamente ritagliato i volti neri a favore di quelli bianchi. Ha anche favorito gli uomini rispetto alle donne, secondo una ricerca di Twitter. Diversi utenti di Twitter hanno dimostrato questo fatto utilizzando immagini di se stessi o di personaggi famosi, come l'ex presidente Barack Obama.
Rumman Chowdhury, direttore di Twitter META, ha spiegato che la società ha deciso di cambiare l'algoritmo e ha ammesso che aziende come Twitter spesso “scoprono danni etici non intenzionali una volta che hanno già raggiunto il pubblico”.
Venerdì , Chowdhury e il product manager di Twitter META Jutta Williams hanno svelato la competizione algoritmica di taglie parziali, che secondo loro faceva parte del DEF CON AI Village di quest'anno.
“A maggio abbiamo condiviso il nostro approccio per identificare i bias nel nostro algoritmo di salienza (noto anche come il nostro algoritmo di ritaglio delle immagini) e abbiamo reso disponibile il nostro codice per consentire ad altri di riprodurre il nostro lavoro. Vogliamo fare un passo avanti in questo lavoro invitando e incentivando la comunità ad aiutare a identificare i potenziali danni di questo algoritmo al di là di ciò che abbiamo identificato noi stessi”, hanno detto i due.
Nella creazione del programma, si sono ispirati al modo in cui le comunità di ricerca e di hacker hanno aiutato il campo della sicurezza a stabilire le migliori pratiche per identificare e mitigare le vulnerabilità al fine di proteggere il pubblico.
Hanno detto che Twitter voleva creare una comunità simile, ma focalizzata sull'etica dell'apprendimento automatico che aiuterà l'azienda a “identificare una gamma più ampia di problemi di quella che saremmo in grado di fare da soli”.
“Con questa sfida miriamo a creare un precedente su Twitter e nel settore per l'identificazione proattiva e collettiva dei danni algoritmici”, hanno scritto Chowdhury e Williams.
“Per questa sfida, stiamo ricondividendo il nostro modello di salienza e il codice utilizzato per generare un ritaglio di un'immagine dato un punto massimamente saliente previsto e chiedendo ai partecipanti di costruire la propria valutazione. Le voci di successo prenderanno in considerazione sia metodi quantitativi che qualitativi nella loro approccio.”
C'è una pagina di presentazione su HackerOne dove le persone possono trovare maggiori informazioni, la rubrica utilizzata per segnare ogni voce e dettagli su come entrare. Le voci saranno giudicate da Ariel Herbert-Voss, Matt Mitchell, Peiter “Mudge” Zatko e Patrick Hall.
Il primo classificato riceverà $ 3.500, il secondo classificato $ 1.000 e il terzo classificato $ 500. Ci saranno anche $ 1.000 ricompense per i più innovativi e più generalizzabili. I vincitori del concorso saranno annunciati al workshop del DEF CON AI Village l'8 agosto.
Williams ha dichiarato a ZDNet che, oltre a saperne di più sulla funzione di ritaglio delle foto, si aspetta di scoprire cosa la gente pensa “danno” comporta.
“Come product manager, cerco di mettermi nei panni delle persone che usano o sono influenzate dai nostri prodotti per capire cosa significa una parola del genere. Tradizionalmente, sentiamo persone che già guardano al pregiudizio algoritmico – e sono aspettandoci di sentire da una comunità molto più ampia di persone che condivideranno molte prospettive su cosa significhi il danno per loro”, ha detto Williams.
“Rumman ha lanciato l'idea con me e il nostro CTO dopo una conversazione con gli organizzatori dell'AI Village: ci vuole un'azienda abbastanza tollerante al rischio per iniziare per prima una cosa del genere. La leadership di Twitter era disposta, persino entusiasta. Non avevamo molto tempo per rispettare la scadenza per DEFCON, quindi noi due ci siamo messi subito a pensare a come definire qualcosa che avremmo potuto rilasciare entro le poche settimane in cui dovevamo prendere una decisione “go/no-go”.
Ha aggiunto che la competizione renderà Twitter molto più saggio su come dovrebbe svolgersi il prossimo evento e sarà istruttivo nel renderlo più facile per i partecipanti e più inclusivo.
La società spera anche di saperne di più su come potrebbe essere necessario correggere immediatamente la loro tecnologia, ha spiegato Williams, e su come prevenire meglio i danni. Il team acquisirà una migliore comprensione di come testare e valutare gli algoritmi per i pregiudizi, ha affermato Williams.
Williams ha notato che ci sono molte incognite nel campo di studio emergente sulla distorsione da apprendimento automatico e pochi programmi affrontano attivamente i rischi algoritmici.
“Spero che avremo qualche altra incognita su cui possiamo iniziare a lavorare sulla risoluzione. La cosa più importante, forse, impareremo a lavorare con questa comunità, i modi per misurare e classificare meglio i danni, cosa serve per convalidare rapporti, modi per mitigare e/o prevenire nuovi danni in futuro, tutto ciò che possiamo condividere con la comunità”, ha detto Williams.
“Questo non è stato gestito solo per il nostro beneficio: personalmente non ci avrei messo il sudore se non fosse stato per l'obiettivo della massima trasparenza.”
guida esecutiva
Che cos'è l'apprendimento automatico? Tutto quello che devi sapere
Ecco come è correlato all'intelligenza artificiale, come funziona e perché è importante.
Leggi di più < /p>
Argomenti correlati:
Digital Transformation CXO Internet of Things Innovation Enterprise Software Smart Cities