Kan Alfabetet sætte “AI første”, samtidig med at overveje de etiske implikationer?

0
102

Nul

Med lanceringen af Pixel 2 og Pixel 2 XL-telefoner, i Google på onsdag fremvist kun én vej, det er at lave kunstig intelligens en væsentlig del af sine produkter og tjenester. Google, da 2016 har fulgt en “AI first” – strategi, der satser på, at intelligens vil noget langt mere end enheder.

Med dette niveau af fokus og investeringer i AI, Google ‘ s moderselskab Alfabet har masser af incitament til at undgå tilbageslag, der kan komme fra AI-installationer gået skævt.

Bare en dag tidligere, DeepMind — Alfabet ‘ s artificial intelligence division — lanceret DeepMind Etik Og Samfund, en forsknings-enhed inden for virksomheden med den hensigt “at udforske og bedre at forstå den virkelige verden virkninger af AI.”

“Teknologien er ikke værdi-neutrale, og teknikere skal tage ansvar for at de etiske og sociale konsekvenser af deres arbejde,” DeepMind sagde i et blog-indlæg, skrevet af Verity Harding og Sean Legassick, den “co-fører” af den nye forskningsenhed. “På DeepMind, vi starter fra den forudsætning, at alle AI-programmer skal forblive under meningsfuld menneskelig kontrol, og bruges til socialt gavnlige formål.”

Den nye gruppe har planer om at udgive original forskning, på egen hånd og i samarbejde med andre. Dens arbejde vil blive vejledt af “centrale forskningstemaer”, såsom “økonomiske konsekvenser” og “AI moral og værdier.” Gruppen har også til hensigt at følge fem grundlæggende principper: At AI bør have social fordel, at dens forskning bør være strenge og evidens-baseret, bør gruppen være gennemsigtige, og arbejdet bør være tværfaglig og omfatter forskellige synsvinkler, og det bør være samarbejde og inklusiv.

“Vores forskning vil være tilgængelige online, og til at bidrage til dokumentationsgrundlaget for en meningsfuld debat om den virkelige verden virkninger af AI,” siger the group på sin FAQ-side.

Forskningsenheden ‘ s principper blev udviklet med input fra uafhængige “medmennesker”, der omfatter akademikere, som Nick Bostrom, stiftende direktør for Oxford University ‘ s Future of Humanity Institute.

Det seneste forsøg på at undersøge de etiske konsekvenser af AI følger lanceringen af en række andre initiativer, nogle mere uafhængige end andre. Sidste år, i virkeligheden, Google og DeepMind sluttede sig til Amazon, Facebook, IBM og Microsoft til at danne en ikke-for-profit organisation, som fokuserer på opbygning af AI bedste praksis og publicering af forskning under en åben licens inden for områder som etik, retfærdighed, og inklusivitet. Derudover, Carnegie Mellon sidste år annoncerede oprettelsen af et nyt forskningscenter med fokus på de etiske aspekter ved kunstig intelligens; universitetet har bånd til Google, såvel som andre for-profit-teknologi virksomheder som Uber.

Mens DeepMind siger forsknings-enhed er forpligtet til gennemsigtighed, virksomheden er kommet under beskydning for nylig for nogle uigennemsigtige adfærd — en offentlig myndighed i det forenede KONGERIGE i denne sommer blev fastslået, at Londons Royal Free hospital undladt at overensstemmelse med Data Protection Act, når det gav DeepMind adgang til personlige data fra 1,6 millioner patienter. DeepMind adgang til de data, der kun kom for dagens lys efter en Ny Videnskabsmand rapport i 2016.

A problem-solving approach IT workers should learn from robotics engineers

En problemløsende tilgang til IT-medarbejdere skal lære af robotteknologi ingeniører

Nogle gange er den mest dybtgående løsning er at ændre hele problemet.

Læs Mere

0