Quand les algorithmes vont mal, nous avons besoin de plus de puissance pour se battre, disent AI chercheurs

0
124

Les gouvernements et les entreprises privées sont de déploiement de système d’intelligence artificielle à un rythme rapide, mais le manque d’outils pour la tenue de ces systèmes de rendre des comptes lorsqu’ils échouent. C’est l’une des principales conclusions d’un nouveau rapport publié par l’IA Maintenant, un groupe de recherche à la maison pour les employés d’entreprises de haute technologie comme Microsoft et Google, et affiliée à l’Université de New York.

Le rapport examine les défis sociaux de l’IA et algorithmique des systèmes, en se focalisant sur ce que les chercheurs appellent “le manque de responsabilisation”, car cette technologie est intégrée “sur tous les domaines sociaux.” Ils ont mis de l’avant dix recommandations, y compris l’appel à la régulation par l’état de la reconnaissance faciale (quelque chose de président de Microsoft, Brad Smith a également plaidé pour cette semaine) et la “vérité dans la publicité” les lois de IA produits, de sorte que les entreprises ne peuvent pas simplement le commerce sur la réputation de la technologie pour vendre leurs services.

De grandes entreprises de haute technologie ont trouvé eux-mêmes dans une IA ruée vers l’or, la charge dans un large éventail de marchés du recrutement à des soins de santé pour vendre leurs services. Mais, comme l’IA aujourd’hui co-fondateur Meredith Whittaker, chef de file de Google Ouvert de la Recherche du Groupe, indique Le Point, “une grande partie de leurs créances sur les avantages et l’utilité ne sont pas soutenus par accessible au public des preuves scientifiques”.

Whittaker donne l’exemple d’IBM Watson système, qui, durant le procès diagnostics au Memorial Sloan Kettering Cancer Center, a donné “dangereux et incorrecte des recommandations de traitement,” selon des fuites de documents internes. “Les demandes qui leur département marketing avait faites au sujet de [la technologie] propriétés quasi magiques n’ont jamais été étayées par la recherche évaluée par les pairs”, dit Whittaker.

2018 a été une année de “scandales en cascade” pour les IA

Les auteurs de l’IA Maintenant le rapport de dire que cet incident est juste l’un des un certain nombre de “cascade de scandales impliquant des IA et algorithmique des systèmes déployés par les gouvernements et les grandes entreprises de haute technologie en 2018. D’autres vont de les accusations que Facebook a contribué à faciliter le génocide au Myanmar, à la révélation que Google est d’aider à construire AI des outils pour les drones de l’armée dans le cadre du Projet Maven, et le Cambridge Analytica scandale.

Dans tous ces cas, il y a eu un tollé général ainsi que de la dissidence dans la Silicon Valley, le plus précieux des entreprises. L’année a vu les employés de Google de cesser de fumer sur la société du Pentagone contrats, les employés de Microsoft pression sur la société de cesser de travailler avec de l’Immigration and Customs Enforcement (ICE), et des employés des débrayages de Google, Uber, eBay, et Airbnb protester contre les problèmes de harcèlement sexuel.

Whittaker dit que ces manifestations, soutenues par le travail des alliances et des initiatives de recherche tels que l’IA c’est propre, sont devenus “un inattendu et gratifiant de force de rendre des comptes.”

US Conducts Air War Against ISIL From Secret Base In Persian Gulf Region

Cette année a vu des manifestations de grande ampleur contre l’utilisation de l’IA, y compris Google participation à la construction de drone de surveillance de la technologie.

Photo par John Moore/Getty Images

Mais le rapport est clair: le public a besoin de plus. Le danger pour la justice sociale est particulièrement clair lorsqu’il s’agit de l’adoption de la décision automatisée des systèmes (ADS) par le gouvernement. Ces inclure des algorithmes utilisés pour le calcul des peines de prison et d’attribuer de l’aide médicale. Généralement, disent les auteurs du rapport, le logiciel est introduite dans ces domaines dans le but de réduire les coûts et augmenter l’efficacité. Mais ce résultat est souvent des systèmes de prise de décisions qui ne peut être expliqué ou d’un appel.

AI Maintenant le rapport cite un certain nombre d’exemples, dont celui de Tammy Dobbs, un résident de l’Arkansas atteints de paralysie cérébrale qui était à sa Medicaid fourni des soins à domicile de coupe de 56 heures à 32 heures par semaine, sans explication. L’Aide juridique a poursuivi avec succès l’État de l’Arkansas et de l’algorithmique système de répartition a été jugé contraire à la constitution.

Whittaker et les collègues de l’IA aujourd’hui co-fondateur de Kate Crawford, chercheur chez Microsoft, dire l’intégration de l’ADS dans les services du gouvernement a dépassé notre capacité à la vérification de ces systèmes. Mais, disent-ils, il y a des mesures concrètes qui peuvent être prises pour remédier à cette situation. Ces obliger les fournisseurs de technologie qui vendent des services au gouvernement de renoncer au secret professionnel protections, permettant ainsi aux chercheurs de mieux examiner leurs algorithmes.

“Si nous voulons que le public reddition de comptes, nous devons être en mesure de vérification de cette technologie.”

“Vous devez être en mesure de dire, “vous avez été coupés de Medicaid, voici pourquoi”, et vous ne pouvez pas le faire avec la boîte noire de systèmes”, dit Crawford. “Si nous voulons que le public reddition de comptes, nous devons être en mesure de vérification de cette technologie.”

Un autre domaine où une action est nécessaire immédiatement, dire de la paire, qui est de l’utilisation de la reconnaissance faciale et d’affecter la reconnaissance. Le premier est de plus en plus utilisés par les forces de police, en Chine, aux usa et en Europe. Amazon Rekognition logiciel, par exemple, a été déployé par la police à Orlando et le Comté de Washington, même si des tests ont montré que le logiciel peut effectuer différemment au travers de différentes races. Dans un essai où Rekognition a été utilisé pour identifier les membres du Congrès, il avait un taux d’erreur de 39% pour les non-membres blancs contre seulement cinq pour cent pour les membres blancs. Et pour affecter la reconnaissance, où les entreprises de technologie peut scanner le visage de quelqu’un et de lire leurs caractère et la même intention, AI Maintenant les auteurs de dire que les entreprises sont souvent le colportage de la pseudoscience.

En dépit de ces défis, cependant, Whittaker et Crawford dire que 2018 a montré que lorsque les problèmes de l’IA reddition de comptes et les préjugés sont mis en lumière, tech, les employés, les législateurs et le public sont prêts à agir plutôt que d’acquiescer.

En ce qui concerne l’algorithmique scandales incubés par la Silicon Valley, les plus grandes entreprises, Crawford dit: “Leur “se déplacer rapidement et de casser des choses,” idéologie a cassé beaucoup de choses qui sont assez cher pour nous et maintenant nous devons commencer à penser à l’intérêt public.”

Dit Whittaker: “Ce que vous voyez est les gens de réveiller les contradictions entre les cyber-utopistes tech de la rhétorique et de la réalité des implications de ces technologies, car ils sont utilisés dans la vie quotidienne.”