Inde i den sorte boks: Forståelse af AI beslutningstagning

0
166
ai-ml-intro-header.jpg
Billede: Getty Images/iStockphoto

Neurale netværk, machine-learning systemer, predictive analytics, talegenkendelse, naturlige sprog, forståelse og andre dele af, hvad der er bredt defineret som ‘kunstig intelligens’ (AI) undergår i øjeblikket et boom: forskning skrider frem med hastige skridt, opmærksomhed i medierne er på en all-time high, og organisationer er i stigende grad implementere AI løsninger i forfølgelsen af automatisering-drevet effektivitet.

Den første ting at fastslå, er, hvad vi taler ikke om, der er human-level AI-ofte betegnes som “stærk AI’ eller ‘kunstig generel intelligens’ (AGI). En undersøgelse blandt fire grupper af eksperter i 2012/13 af AI forskere Vincent C. Müller og Nick Bostrom rapporterede om en 50 procent chance for, at AGI ville være udviklet mellem 2040 og 2050, stigende til 90 procent af 2075; såkaldte ‘superintelligens’ — som Bostrom definerer som “enhver intellekt, der langt overstiger den kognitive præstation af mennesker i stort set alle områder af interesse” — var forventet omkring 30 år efter opnåelsen af AGI (Grundlæggende Spørgsmål af Kunstig Intelligens, Kapitel 33). Disse ting vil ske, og det er bestemt bør overvejes nøje, men det sker ikke lige nu.

Hvad sker der lige nu, i et stigende tempo, er anvendelsen af AI algoritmer til alle former for processer, der kan have væsentlig indflydelse på folks liv-på arbejdspladsen, i hjemmet, som de rejser rundt. Selv om hype omkring disse teknologier, der nærmer sig de ‘toppen af forventning’ (sensu Gartner), der er en potentiel flyve i AI salve: hvordan mange af disse algoritmer er ikke åben for granskning — enten fordi de er den egenudviklede aktiver af en organisation, eller fordi de er uigennemsigtig på grund af deres karakter.

Hvis ikke ordentligt fat, og sådanne bekymringer kunne være med til at gøre overhyped forventninger til AI i en modreaktion (Gartner ‘ s ‘trug af desillusion’).

ai-ml-gartner-hype-cycle.jpg

Mange AI-relaterede teknologier, der nærmer sig, eller allerede har nået, “toppen af oppustede forventninger” i Gartner ‘ s Hype Cycle, med slør-drevet ‘trug af desillusion’, der lå i vente.

Billede: Gartner / Anmærkninger: ZDNet

Her er et eksempel: i Maj dette år, COMPAS, en proprietær risikovurdering algoritme, der er almindeligt anvendt til at afgøre, om den er frihed eller fængsling af tiltalte, der passerer gennem OS strafferetlige system blev påstået af online undersøgende journalistik site ProPublica at være systematisk forudindtaget mod afro-Amerikanere i forhold til hvide. Selv om Northpointe (for-profit firma bag COMPAS) omstridte ProPublica ‘ s statistiske analyse, at generere yderligere polemik, at den udbredte brug af tæt bevogtet proprietære algoritmer på følsomme områder, som det strafferetlige område er en årsag til bekymring i det mindste.

Nogle gange, bias, der kan indføres via de data, som neurale netværk-baserede algoritmer er uddannet. I juli dette år, for eksempel, Rachael Tatman, National Science Foundation Graduate Research Fellow i Lingvistik Afdeling på University of Washington, fandt at Google ‘ s system til talegenkendelse, der udføres bedre for mandlige stemmer end kvindelige dem, når auto-tekstning af en stikprøve af YouTube-videoer, et resultat, hun har tilskrevet ‘ubalanceret uddannelse sæt” med en overvægt af mandlige talere. Som Tatman bemærkes, et par forkerte YouTube billedtekster ikke kommer til at forårsage nogen skade, men lignende talegenkendelse bias i medicinsk eller i forbindelse bilen applikationer, for eksempel, ville være en helt anden sag.

ai-ml-ecosystem.jpg

Selv om AI er ofte sidestilles med “dyb læring’ neurale netværk, den kunstige intelligens økosystem omfatter mange typer af algoritmen.

Billede: Narrative Science

Neurale netværk som ‘black boxes’

Neurale netværk er en særlig anledning til bekymring, ikke kun fordi de er en vigtig del af mange AI-programmer-herunder billede talegenkendelse, naturlige sprog, forståelse og maskine oversættelse-men også fordi de er noget af en ‘black box’, når det kommer til at forklare præcis, hvordan deres resultater er genereret.

Neurale netværk er såkaldte fordi de efterligner, til en vis grad, den måde, den menneskelige hjerne er struktureret: de er opbygget af lag af indbyrdes forbundne, neuron-lignende, noder og omfatter et input lag, et output lag og et varierende antal mellemliggende ‘skjulte’ lag — ‘dybe’ neurale net blot har mere end ét skjult lag. Knudepunkter selv udføre relativt simple matematiske operationer, men mellem dem, efter træning, de kan processen hidtil usete data og generere korrekte resultater baseret på, hvad der blev lært fra uddannelsen data.

ai-ml-neural-network.jpg

Struktur og træning af dybt neurale netværk.

Billede: Nuance

Nøglen til uddannelse er en proces, der kaldes “back propagation”, hvor mærket eksempler fodres ind i systemet og mellemliggende lag indstillinger er gradvist ændret indtil output lag giver et optimalt match til input lag.

Det er én ting, at skabe en model, der giver nøjagtige resultater med hidtil usete data, men-som tidligere nævnt-i mange virkelige verden vil det være ønskeligt at undersøge den interne beslutningsproces i detaljer.

Nils Lenke, Senior Director, Corporate Research på Nuance, erkender problemet: “Det er et meget interessant og relevant emne, fordi i forhold til at, sige, regel-baserede systemer, neurale netværk eller andre machine-learning algoritmer er ikke gennemsigtig. Det er ikke altid klart, hvad der sker inde — du lade netværket organisere sig, men det, der virkelig betyder, at det ikke organisere sig selv: det behøver ikke nødvendigvis fortælle dig, hvordan det har det.”

Peering inde i den sorte boks

Denne “black box” problem blev behandlet i en nylig papir fra MIT ‘s Computer Science and Artificial Intelligence Laboratory (CSAIL), hvor man har undersøgt, neurale netværk, der er uddannet på tekst-baserede data, der anvender et system bestående af to moduler — en “generator” og en “encoder”. Generatoren ekstrakter vigtige dele af tekst fra uddannelsen data, der giver en høj score til kort, sammenhængende strenge; disse er derefter videre til den emhætte, som udfører den opgave. Målet er at maksimere både generator scores og nøjagtigheden af emhætte forudsigelser.

Til at vurdere, hvordan dette system fungerer, den ene af uddannelsen datasæt, som forskerne brugte, var et sæt af omkring 1.500 anmeldelser fra en hjemmeside, der bruges til øl. Tusind eller deromkring af disse anmeldelser var blevet kommenteret af hånd for at angive, at der er overensstemmelse mellem bestemte sætninger og anmelder score (fra 1-5) for udseende, lugt og smag. Hvis generatoren/emhætte neurale netværk lykkedes at lokalisere de samme sætninger og korrelere dem med det samme anmelder ratings, så ville det være at udøve menneske-som dom.

Resultaterne var imponerende, med de neurale netværk, der viser et højt niveau af aftale med den menneskelige annotators på udseende (96.3%) og lugt (95.1%), selv om det var lidt mindre sikker-footed på den hårdere begrebet ganen (80.2%).

Ifølge MIT forskerne har anvendt deres rationale-udvinding metode til at medicinske data, både tekst-baseret (patologi rapporter om brystkræft biopsier) og image-baseret (mammografi), selv om der ikke offentliggjort rapport om dette arbejde er tilgængelige endnu.

En hjælpende menneskelige hånd

Disse er en positiv udvikling, men hvad skal man gøre, hvis en nuværende AI-system ikke kan have tillid til at træffe vigtige beslutninger på egen hånd?

Nuance ‘ s Nils Lenke skitserer muligheder: “Den første ting, du har brug for mere specifikke tilfælde, der er en tillidsskabende foranstaltning, så det ikke kun gøre det resultat, du får fra det neurale netværk, men du vil også få en forståelse af, hvordan overbevist om, det er, at det er det rigtige resultat. Der kan hjælpe dig med at træffe beslutninger-har du brug for yderligere beviser, har du brug for et menneske at se i resultatet, kan du tage det for pålydende?”

“Så er du nødt til at se på opgaver på hånden,” Lenke fortsætter. “For nogle, er det ikke virkelig kritisk, hvis du ikke fuldt ud forstår, hvad sker, eller selv hvis netværket er forkert. Et system, der foreslår musik, for eksempel: alle der kan gå galt er, kan du lytte til kedelige stykke musik. Men med applikationer som virksomheden kundeservice, hvor transaktioner er involveret, eller computer-assisted kliniske dokumentation forbedring, hvad vi typisk gør, der er, at vi ikke sætte AI i isolation, men vi har det co-arbejde med et menneske.”

ai-ml-nuance-hava.jpg

Et menneske-assisteret virtuelle assistent (HAVA), som er indsat i en virksomhed kundeservice ansøgning.

Billede: Nuance

“I kunde-pleje arena, vi kalder at HAVA, eller de Menneskelige-Assisteret Virtuelle Assistent,” forklarer Lenke. “Det interessante her er, at vi har noget, der hedder ‘passage retrieval’: sige, at kunden stiller et spørgsmål, enten via talegenkendelse eller skrives input fra en chat eller web-interface, så den virtuelle assistent går gennem sine fakta og data-hvilket kan være en samling af manualer og dokumenter, der er leveret af virksomheden-og finder relevante passager, som den fremlægger for den menneskelige agent, som træffer den endelige opkald. Det er mere effektivt, fordi AI præsenterer relevante oplysninger til ham eller hende.”

“Jeg tror, du kan se fra Microsoft’ s erfaringer med chat-bot, at sætte AI i en tilstand, hvor det ikke er under opsyn, kan være risici,” Lenke tilføjer. “Det er derfor, vi mener, at dette kurateret måde, hvor et menneske ser på materiale, og har det sidste opkald, er den rigtige måde at gøre det på for kritiske applikationer.”

Etik og AI

Mange mennesker-herunder Stephen Hawking, Elon Musk og førende AI forskere — har udtrykt bekymring om, hvordan AI kan udvikle sig, som førte til oprettelsen af organisationer som Åbne AI og Partnerskab på AI med henblik på at undgå potentielle faldgruber.

Målet med Åbne AI, der blev grundlagt i December 2015 og ledet af Elon Musk og Sam Altman, er “at fremme digital intelligens på den måde, der er mest tilbøjelige til gavn for menneskeheden som en helhed, der ikke hindres af et behov for at generere økonomisk afkast.”

Partnerskab om AI — meddelte i September 2016 med stiftende medlemmer, Amazon, Facebook, Google, IBM og Microsoft — har til formål at støtte forskning og anbefale bedste praksis, fremme offentlighedens forståelse og bevidsthed om AI, og skabe en åben platform for diskussion og engagement.

Mest for nylig, Carnegie Mellon University annonceret en $10 millioner gave fra en førende advokatfirma (K&L Gates) for at studere, etiske og politiske spørgsmål omkring kunstig intelligens og andre it-teknologier.

Et perfekt eksempel på, hvorfor etik af AI har brug for overvågning, kom i en nylig artikel med titlen Automatiseret Inferens om Kriminalitet ved hjælp af Face Billeder af to forskere fra Shanghai Jiao Tong University. I en foruroligende ekko af lang-miskrediteret forsøg på at korrelere fysiognomi med tilbøjelighed til kriminalitet, Xiaolin Wu og Xi Zhang bygget fire kriterier for klassificering — herunder en convolutional neurale netværk — ved hjælp af “facial billeder af 1,856 virkelige personer kontrolleret for race, køn, alder og ansigtsudtryk, at næsten halvdelen af dem blev dømt kriminelle”. Forfatterne hævder, at “Alle fire kriterier for klassificering udføre konsekvent godt og producere beviser for gyldigheden af automatiserede ansigt-induceret inferens om kriminalitet, på trods af den historiske kontroverser omkring emnet”, tilføjer, at de fandt “nogle kræsne strukturelle funktioner til at forudsige kriminalitet, såsom læbe krumning, øje inderste hjørne afstand, og den såkaldte næse-mund vinkel.”

Dette papir er på arXiv pre-print server, og ikke er blevet peer-reviewed, men taler til BBC, Susan McVie, Professor i Kvantitative Kriminologi på Universitetet i Edinburgh, bemærkes, at “Hvad denne forskning kan være picking up på, er stereotyper, som føre til, at folk bliver samlet op af det strafferetlige system, snarere end sandsynligheden for at fornærme nogen,…Der er ingen teoretisk grund til, at den måde, en person ser ud, skal gøre dem til en kriminel.”

AI-drevet genopblussen af tanken om, at kriminalitet kan udledes fra facial billeder ville være særdeles uhensigtsmæssigt, da det nuværende politiske klima på begge sider af Atlanten.

AI implementering i virksomheden

AI er helt klart en udvikling af området, men det har ikke stoppet organisationer fremad og gennemførelse af det — selv om de er ofte ikke fuldt ud klar over, at de har gjort det. I juli dette år, Fortællende Videnskab, der udvikler avancerede naturlige sprog-generation (NLG) systemer, der præsenteres resultaterne af en undersøgelse af 235 virksomhedsledere, der dækker implementering af AI-drevne applikationer inden for deres organisationer. Overordnede resultater fra Outlook på Kunstig Intelligens i Virksomheden 2016 var:

AI vedtagelse er nært forestående, på trods af markedsplads forvirring: selv om det kun 38 procent af survey-gruppen bekræftet, at de var ved hjælp af AI, 88 procent af den resterende del faktisk gjorde brug af AI teknologier såsom predictive analytics, automatiseret skriftlig rapportering og kommunikation, og stemmegenkendelse/svar.

Predictive analytics er dominerende virksomhed: 58 procent af de adspurgte, der anvendes data mining, statistik, modellering og machine learning til at analysere eksisterende data og gøre forudsigelser; i anden omgang, på omkring 25 procent, blev automatiseret skriftlig rapportering og/eller kommunikation og stemmegenkendelse/svar.

Mangel på data science talent fortsætter med at påvirke organisationer: 59 procent af de adspurgte udnævnt til ‘manglende data science talent’ som den primære barriere for at realisere værdien af deres big data-teknologier. Næsten alle de adspurgte (95%), der oplyste, at de var dygtige til at bruge big data til at løse problemer eller skabe indsigt også brugt af AI teknologier.

Virksomheder, der genererer mest værdi ud af deres investeringer i teknologi gøre innovation til en prioritet: 61 procent af de adspurgte, der havde en innovationsstrategi, der anvendes AI til at identificere muligheder i data, som ellers ville være savnet, sammenlignet med at kun 22 procent af de adspurgte uden en sådan strategi.

Der er sikkert flere virksomheder er involveret i AI end nogensinde før, og også en ny “teknologi-stak’, som det nylige landskab infografik fra Bloomberg Beta gør det klart:

ai-ml-landscape.jpg
Billede: Bloomberg Beta

I deres analyse, Bloomberg Beta ‘ s Shivon Zilis og James Cham bemærk at version 3.0 landskab indeholder en tredjedel flere virksomheder end de første to år siden, og at “det føles endnu mere omsonst at forsøge at være omfattende, da dette blot ridser i overfladen af alle de aktiviteter derude.” Dette er forventeligt i en teknologi, et område, der er racing til toppen af hype cycle, og der vil være masser flere nystartede og M&A-aktivitet, som markedet modnes. Men som AI nystartede vil trives? Ifølge Bloomberg Beta forfattere, “Virksomheder, ser vi med succes ind i et langsigtet forløb kan pakke deres teknologi som et nyt problem-specifikke anvendelse for virksomheden eller simpelthen omdanne en industri i sig selv som en ny aktør.”

Outlook

I den nærmeste fremtid, hvordan er AI sandsynligt, at fremskridt?

“Der vil være flere varianter af neurale netværk, og folk bliver mere opmærksomme på, hvad der rent faktisk sker i løbet af behandlingen,” siger Nuance Nils Lenke. “Vil du ønsker at visualisere, hvad der sker på lag, og hvordan de arbejder sammen med data, og gøre den mere gennemskuelig, hvilket stykke de beviser, der førte til, hvilke beslutning, således at netværket ikke kun giver et resultat, men påpeger også, beviser og argumentation proces.”

Lenke understreger også, at AI ikke altid betyder, at neurale netværk: “Vi laver også AI-baseret på viden, repræsentation og regel-baserede systemer, og for nogle kritiske ting, kan det være bedre at gå med regel-baserede systemer, hvor du er i fuld kontrol med, hvilke regler er der, og som ikke er der. Kan du have det i din værktøjskasse til ting, hvor det giver mening, hvor der nemt kan kodificeres af et menneske.”

AI bliver relativt ligetil at gennemføre, med data, algoritmer og computing ressourcer i stigende grad tilgængelig. Men der er altid den menneskelige faktor til at overveje: mennesker kan stille de forkerte spørgsmål, brug, mangelfuld uddannelse af data, og acceptere output fra algoritmer, uden at spørge til dets oprindelse.

Bør vi frygte superintelligent AI? Måske, på grund af kursus. Men mere pressingly, bør vi være opmærksomme på, hvad folk kan gøre med dagens AI teknologi. Eller som Bloomberg Beta ‘ s Zilis og Cham, udtrykker det: “I de næste par år, faren her er ikke hvad vi ser i dystopisk sci-fi film. Den virkelige fare for maskinen intelligens er, at ledere vil gøre dårlige beslutninger om, hvad der machine intelligence muligheder for at bygge videre på.”