Quando algoritmi andare male abbiamo bisogno di più forza per combattere indietro, dire AI ricercatori

0
140

I governi e le aziende private sono in distribuzione AI sistemi ad un ritmo rapido, ma il pubblico non gli strumenti per tenere questi sistemi responsabili quando non. Questa è una delle principali conclusioni in un nuovo rapporto pubblicato dall’IA Ora, un gruppo di ricerca a casa per i dipendenti da aziende di tecnologia come Microsoft e Google e affiliati con l’Università di New York.

La relazione esamina le sfide sociali di intelligenza artificiale e dei sistemi algoritmica, homing in su ciò che i ricercatori chiamano “il vuoto di responsabilità” in quanto questa tecnologia è integrata “attraverso core sociale.” Hanno messo in avanti di dieci raccomandazioni, tra cui la chiamata per la regolamentazione del governo il riconoscimento facciale (qualcosa di presidente di Microsoft Brad Smith ha anche sostenuto per questa settimana) e “la verità-in-pubblicità” leggi, AI prodotti, in modo che le aziende non possono semplicemente commercio per la reputazione della tecnologia per vendere i loro servizi.

Le grandi aziende tecnologiche si sono trovati in un AI gold rush, la carica in un’ampia gamma di mercati, dal reclutamento alla sanità per vendere i loro servizi. Ma, come Ora AI co-fondatore di Meredith Whittaker, leader di Google di Aprire il Gruppo di Ricerca, che racconta Il Punto, “un sacco di loro rivendicazioni beneficio e utilità non viene eseguito pubblicamente accessibili prove scientifiche.”

Whittaker dà l’esempio di IBM Watson sistema, che, durante il processo di diagnosi presso il Memorial Sloan Kettering Cancer Center, ha dato “non sicuri e il corretto trattamento delle raccomandazioni”, secondo quanto trapelato documenti interni. “Le rivendicazioni che il loro reparto marketing aveva fatto circa [tecnologia] vicino-proprietà magiche non sono mai stati giustificati dal peer-reviewed di ricerca,” dice Whittaker.

Il 2018 è stato un anno di “a cascata scandali” di AI

Gli autori dell’IA Ora la relazione di dire che questo episodio è solo uno di una serie di “cascata scandali” che coinvolge l’IA e algoritmico sistemi distribuiti dai governi e grandi aziende tecnologiche nel 2018. Gli altri vanno da accuse che Facebook ha aiutato a facilitare il genocidio in Myanmar, per la rivelazione che Google sta aiutando a costruire AI strumenti per droni per i militari, come parte del Progetto Maven, e il Cambridge Analytica scandalo.

In tutti questi casi c’è stato clamore pubblico nonché dissenso in Silicon Valley società più importanti. L’anno ha visto i dipendenti di Google uscire sulla società il Pentagono di contratti, dipendenti di Microsoft spingendo l’azienda a interrompere il lavoro con Immigration and Customs Enforcement (ICE), e dipendente walkouts da Google, Uber, eBay, e Airbnb protesta problemi che coinvolgono le molestie sessuali.

Whittaker dice queste proteste, supportata dal lavoro di alleanze e iniziative di ricerca, come Ora AI propri, sono diventati “un inaspettato e gratificante forza la responsabilità pubblica.”

US Conducts Air War Against ISIL From Secret Base In Persian Gulf Region

Quest’anno ha visto una diffusa protesta contro l’uso di AI, tra cui Google coinvolgimento nella costruzione di droni di sorveglianza tecnologia.

Foto di John Moore/Getty Images

Ma il rapporto è chiaro: il pubblico ha bisogno di più. Il pericolo per la giustizia civile è particolarmente evidente quando si tratta dell’adozione di decisioni automatiche systems (ADS) dal governo. Questi includono gli algoritmi utilizzati per il calcolo di reclusione e l’assegnazione di aiuti medici. Di solito, dicono gli autori del rapporto, il software è stato introdotto in questi domini con lo scopo di ridurre i costi e aumentare l’efficienza. Ma quel risultato è spesso sistemi di decisioni che non possono essere spiegati o appello.

IA Ora il rapporto cita una serie di esempi, tra cui quello di Tammy Dobbs, Arkansas residente con una paralisi cerebrale che ha avuto il suo Medicaid fornito assistenza domiciliare taglio da 56 ore a 32 ore alla settimana, senza spiegazione. Patrocinio citata in giudizio lo Stato dell’Arkansas e algoritmico sistema di attribuzione è stata giudicata incostituzionale.

Whittaker e AI compagni di Ora co-fondatore di Kate Crawford, un ricercatore di Microsoft, dire che l’integrazione di ANNUNCI di governo dei servizi ha superato la nostra capacità di controllare questi sistemi. Ma, dicono, ci sono passi concreti che possono essere adottate per porre rimedio a questo. Questi includono richiedono fornitori di tecnologia che vendono servizi per il governo di rinunciare segreti commerciali, protezioni, consentendo ai ricercatori di esaminare meglio i loro algoritmi.

“Se vogliamo che la responsabilità pubblica dobbiamo essere in grado di controllare questa tecnologia.”

“Devi essere in grado di dire, ‘sei stato tagliato fuori da Medicaid, ecco perché”, e non si può fare con scatola nera sistemi” dice Crawford. “Se vogliamo che la responsabilità pubblica dobbiamo essere in grado di controllare questa tecnologia.”

Un’altra area in cui è necessario agire immediatamente, dicono che i due, è l’uso di riconoscimento facciale e di influenzare il riconoscimento. Il primo è sempre più utilizzato dalle forze di polizia, in Cina, gli USA e l’Europa. Amazon Rekognition software, per esempio, è stato utilizzato dalla polizia di Orlando e Washington County, anche se i test hanno dimostrato che il software in grado di effettuare in modo diverso in diverse gare. In un test in cui Rekognition è stato utilizzato per identificare i membri del Congresso ha avuto un tasso di errore pari al 39 per cento per i non-membri bianchi rispetto a solo il cinque per cento per i membri bianchi. E per influenzare il riconoscimento, in cui le aziende sostengono tecnologia di scansione qualcuno faccia e leggere il loro carattere e anche di intenti, AI Ora gli autori di dire che le aziende sono spesso spaccio pseudoscienza.

Nonostante queste difficoltà, però, Whittaker e Crawford dire che 2018 ha dimostrato che quando i problemi di IA responsabilità e pregiudizi vengono portati alla luce, tech, i dipendenti, i legislatori e il pubblico sono disposti ad agire, piuttosto che acconsentire.

Per quanto riguarda il algoritmico scandali incubate dalla Silicon Valley più grandi aziende, Crawford dice: “Loro si e ‘mossa veloce e rompere le cose’ ideologia ha rotto un sacco di cose che sono abbastanza cari a noi e ora dobbiamo iniziare a pensare all’interesse pubblico”.

Dice Whittaker: “Quello che stiamo vedendo è che le persone, svegliarsi alle contraddizioni tra il cyber-utopista tech retorica e la realtà delle implicazioni di queste tecnologie sono utilizzate nella vita quotidiana.”