Google assunto microworkers per addestrare il suo controverso Progetto Maven AI

0
104

Secondo un nuovo rapporto da Intercettare, Google assunto concerto di economia operai di costruire un controverso programma di intelligenza artificiale che la società aveva accoppiato con il Pentagono per costruire.

Gli operai sono stati assunti attraverso il crowdsourcing concerto azienda outfit chiamati a forma di Otto, che paga poco meno di $1 un’ora per le persone a effettuare brevi, apparentemente insensata attività. Se le persone erano identificare gli oggetti in CAPTCHA-come immagini o altri compiti semplici, gli operai stavano contribuendo alla formazione di Google IA che è stato creato come parte di un Dipartimento per la Difesa iniziativa denominata Progetto Maven.

Progetto Maven è un Pentagono progetto destinato a uso di machine learning e di intelligenza artificiale, per distinguere le persone e gli oggetti in migliaia di ore di drone riprese. Con l’impiego di queste crowdsourcing microworkers, Google è stato in grado di insegnare gli algoritmi in esecuzione, come distinguere i bersagli umani e gli oggetti circostanti.

Secondo L’Intercetta, questi lavoratori non avevano idea che il loro lavoro è stato a vantaggio o quello che stavano costruendo.

Lo scorso giugno, Google ha detto che aveva deciso di non rinnovare il suo contratto con il Dipartimento della Difesa, in quanto coinvolte nel Progetto Maven dopo gli oltre 3.000 dipendenti hanno firmato una petizione per protestare contro la partecipazione dell’azienda all’iniziativa. L’affare è impostato per terminare a Marzo 2019.

Figura Otto, che in precedenza era conosciuto come Crowdflower, è una delle più grandi piattaforme che impiega microworkers. Sul suo sito web, Figura Otto dice la sua piattaforma “unisce l’intelligenza umana in scala con il taglio-bordo di modelli per creare la più alta qualità di dati di training per il machine learning (ML) progetti”. Grazie alla collaborazione con questi microworker abiti, Google potrebbe rapidamente e a basso costo costruire l’IA.

“Il caricamento dei dati per la nostra piattaforma e forniamo le annotazioni, le sentenze e le etichette è necessario creare accurate verità a terra per i vostri modelli,” il sito si legge.