Inside the black box: att Förstå AI beslutsfattande

0
185
ai-ml-intro-header.jpg
Bild: Getty Images/iStockphoto

Neurala nätverk, maskin-system för lärande, predictive analytics, taligenkänning, naturligt språk, förståelse och övriga delar av vad som i stort sett definieras som “artificiell intelligens” (AI) är för närvarande genomgår en boom: forskningen går framåt i snabb takt, uppmärksamhet i media, är på en all-time high, och organisationer alltmer genomföra AI lösningar i utförandet av automatisering, driven effektivitetsvinster.

Den första sak att fastställa vad vi pratar inte om, vilket är mänskligt-nivå AI — ofta kallas “stark AI’ eller ‘artificiell generell intelligens’ (AGI). En undersökning som genomfördes bland fyra grupper av experter på 2012/13 AI-forskarna Vincent C. Müller och Nick Bostrom rapporterade en 50 procents chans att AGI skulle utvecklas mellan 2040 och 2050, för att stiga till 90 procent av 2075; så kallade “superintelligens’ — som Boström definierar som “någon intellekt som vida överstiger den kognitiva prestanda av människor i så gott som alla områden som är av intresse”, som var väntat, ca 30 år efter uppnåendet av AGI (Grundläggande Frågor av Artificiell Intelligens, Kapitel 33). Det här kommer att hända, och att det verkligen måste övervägas noga, men det är inte något som händer just nu.

Vad är det som händer just nu, i en allt snabbare takt, är tillämpningen av AI-algoritmer för alla typer av processer som kan påverka människors liv-på jobbet, hemma och när de reser runt. Även om hypen kring dessa tekniker närmar sig peak av förväntan ” (bemärkelse Gartner), det finns en potential att flyga i AI salva: hur många av dessa algoritmer är inte öppen för granskning — antingen för att de är unika tillgångar i en organisation eller för att de är oklara till sin natur.

Om den inte behandlas på rätt sätt, sådana farhågor kan hjälpa till att vända overhyped förväntningar för AI i en backlash (Gartner ‘tråg en besvikelse’).

ai-ml-gartner-hype-cycle.jpg

Många AI-relaterade tekniker som närmar sig eller redan har uppnått “peak of inflated expectations” i Gartners Hype Cycle, med bakslag-drivet tråg en besvikelse ” som ligger på lur.

Bild: Gartner / Kommentarer: ZDNet

Här är ett exempel: i Maj detta år, COMPAS, en egen riskbedömning algoritm som ofta används för att besluta om frihet eller fängelse av svarande som passerar genom OSS straffrättsliga systemet hävdades av online undersökande journalistik webbplats ProPublica systematiskt vinklad mot Afro-Amerikaner jämfört med vita. Även om Northpointe (vinstdrivande företag bakom COMPAS) bestred ProPublica statistisk analys, vilket genererar ytterligare kontroverser, den utbredda användningen av välbevakad egenutvecklade algoritmer i känsliga områden, såsom straffrätten är ett problem för de allra minsta.

Ibland, bias kan införas via uppgifter på vilka neurala nätverk-algoritmer är utbildade för. I juli i år, till exempel, Rachael Tatman, National Science Foundation Examen som forskare inom Lingvistik Institutionen vid University of Washington, som finns att Googles system taligenkänning presterade bättre för manliga röster än de kvinnliga och kära när automatisk textning ett urval av YouTube-videor, ett resultat hon tillskrivs obalanserad training set ” med en övervikt av manliga talare. Som Tatman noteras, några felaktiga YouTube bildtexter inte kommer att orsaka någon skada, men liknande taligenkänning fördomar i medicinska eller ansluten-bil-program, till exempel, skulle vara en helt annan sak.

ai-ml-ecosystem.jpg

Även om AI: n är ofta likställs med “deep learning’ neurala nätverk, artificiell intelligens ekosystem omfattar många typer av algoritm.

Bild: Narrative Science

Neurala nätverk som “svarta lådor”

Neurala nätverk är ett problem, särskilt inte bara för att de är en viktig del av många AI-program — inklusive bildigenkänning, taligenkänning, naturliga språk förståelse och maskinöversättning — men också eftersom de är något av en “black box” när det gäller att belysa exakt hur deras resultat genereras.

Neurala nätverk är så kallade eftersom de efterliknar, till en grad, hur den mänskliga hjärnan är uppbyggd: de är byggda från lager av sammankopplade, neuron-liknande, noder och består av en ingång lager, ett utgående lager samt ett varierande antal mellanliggande dolda lager — ‘djup’ neurala nät som enbart har mer än ett dolt lager. Noderna utföra relativt enkla matematiska operationer, men mellan dem, efter utbildning, de kan bearbeta tidigare osedda data och få fram korrekta resultat baserat på vad som hade lärt sig från utbildningen data.

ai-ml-neural-network.jpg

Strukturen och utbildning av djup neurala nätverk.

Bild: Nuance

Nyckeln till att utbildning är en process som kallas för “back propagation”, i vilket märks exempel matas in i systemet och mellanliggande lager inställningar gradvis ändras tills produktionen lager ger en optimal match att inmatningslagret.

Det är en sak att skapa en modell som ger korrekta resultat med tidigare osedda data, men — som diskuterats tidigare, och i många verkliga tillämpningar är det önskvärt att granska den interna beslutsprocessen i detalj.

Nils Lenke, Senior Director, Corporate Research på Nyans, erkänner problemet: “Det är en mycket intressant och relevant fråga, eftersom jämfört med, säg, regel-baserade system, neurala nätverk eller andra maskin-lärande algoritmer är inte att öppna. Det är inte alltid klart vad som händer inuti — du låter nätverk organisera sig, men som egentligen betyder att det inte organisera sig själv: det behöver inte nödvändigtvis tala om för dig hur den gjorde det.”

Peering inne i den svarta lådan

Denna “svarta låda” som var problemet åtgärdas i en ny rapport från MIT: s Computer Science and Artificial Intelligence Laboratory (CSAIL), som undersökte neurala nätverk utbildad på text-baserade data med hjälp av ett system som består av två moduler-en “generator” och ett “encoder”. Generatorn utdrag viktiga segment av text från utbildning data, vilket ger höga poäng till en kort, sammanhängande strängar; dessa skickas sedan till extractor, som utför klassificeringen uppgift. Målet är att maximera både generator poäng och riktigheten av extractor förutsägelser.

För att bedöma hur väl systemet fungerar, en av utbildning datamängder forskarna använde sig av var en uppsättning av cirka 1 500 recensioner från en webbplats till öl. Ett tusental av dessa granskningar har varit kommenterad av hand för att visa den korrespondens mellan vissa meningar och granskare poäng (1-5) för utseende, lukt och smak. Om generatorn/extractor neurala nätverk lyckats pricka in samma meningar och korrelera dem med samma granskare betyg, så skulle det vara att utöva mänskliga-liknande bedömning.

Resultaten var imponerande, med det neurala nätverket som visar höga nivåer av avtal med den mänskliga annotators på utseende (96.3%) och lukt (95.1%), även om det var lite mindre säker på foten på tuffare begreppet gommen (80.2%).

Enligt MIT forskare har tillämpat sin logiska-extraktion metod för att medicinska data, både text-baserat (patologi rapporter om bröstcancer biopsier) och bild-baserade (mammografi), även om inga publicerade rapport om detta arbete finns tillgänglig ännu.

En hjälpande hand

Dessa är uppmuntrande, men vad ska man göra om en ström AI-system kan inte lita på att fatta viktiga beslut på egen hand?

Nuance Nils Lenke anger de alternativ: “Det första du behöver för mer specifika fall är ett förtroende åtgärd, så inte nog med att du får ett resultat från det neurala nätverket, men du får också en förståelse av hur säker den är att den har rätt resultat. Som kan hjälpa dig att fatta beslut-har du behov av ytterligare bevisning, behöver du en människa att titta på resultatet, kan du ta det till nominellt värde?”

“Då måste du titta på den aktuella uppgiften,” Lenke fortsätter. “För en del, det är egentligen inte avgörande om du inte fullt ut förstår vad som händer, eller ens om nätverket är fel. Ett system som tyder på musik, till exempel: allt som kan gå fel, du lyssnar på tråkig musik. Men med program som företag kundtjänst, där transaktioner som är inblandade, eller computer-assisted klinisk dokumentation förbättring, vad vi brukar göra det, vi sätter inte AI i isolering, men vi har det co-arbete med en människa.”

ai-ml-nuance-hava.jpg

En mänsklig hjälp av virtuell assistent (HAVA) utplacerade i ett företags kundtjänst ansökan.

Bild: Nuance

“I kund-och sjukvård arena vi kallar att HAVA, eller den Mänskliga Assisterad Virtuell Assistent,” förklarar Lenke. “Det intressanta här är, vi har något som kallas “passage hämtning”: säg att kunden ställer en fråga, antingen via taligenkänning eller skrivit input från en chatt eller i ett webb-gränssnitt, då den virtuella assistent går igenom fakta och data-som kan vara en samling av manualer och dokument som tillhandahålls av företaget — och finner relevanta passager, som presenteras för mänsklig agent, som gör det slutliga samtal. Det är mer effektivt, eftersom AI presenterar relevant information för honom eller henne.”

“Jag tror att du kan se Microsofts upplevelse med sin chatt bot att sätta AI i ett läge där det inte är övervakad kan bära risker,” Lenke lägger till. “Det är därför vi tror att detta curerad sätt, där en människa ser på det material och har sista samtalet, är det rätta sättet att göra det för kritiska applikationer.”

Etik och AI

Många människor-inklusive Stephen Hawking, Elon Musk och leder AI-forskare-har uttryckt oro för hur AI kan utvecklas, vilket leder till skapandet av organisationer som Öppna AI och Partnerskap på AI som syftar till att undvika potentiella fallgropar.

Målet med Öppen AI, som grundades i December 2015 och co-under ledning av Elon Musk och Sam Altman, är “att främja digital intelligens på det sätt som är mest sannolikt att gynna mänskligheten som helhet, ganska oberoende av ett behov av att generera ekonomisk avkastning.”

Partnerskap på AI — meddelade i September 2016 med grundande medlemmarna Amazon, Facebook, Google, IBM och Microsoft — syftar till att stödja forskning och rekommendera bästa praxis, främja människors förståelse och medvetenhet om AI och skapar en öppen plattform för diskussion och engagemang.

Mest nyligen, Carnegie Mellon University meddelade en $10 miljoner gåva från en ledande advokatbyrå (K&L Gates) för att studera etiska och politiska frågor kring artificiell intelligens och andra design och teknik.

Ett perfekt exempel på varför etik och AI behovet av övervakning som kom i en ny rapport med titeln Automatiserad Slutledning om Kriminalitet med hjälp av Ansiktet Bilder av två forskare från Shanghai Jiao Tong University. I en störande eko av lång-misskrediterade försök att korrelera fysionomi med benägenhet för kriminalitet, Xiaolin Wu och Xi Zhang byggt fyra klassificerare — inklusive ett convolutional neurala nätverk-med hjälp av “facial bilder av aktier om 1 856 verkliga personer som kontrolleras avseende ras, kön, ålder och ansiktsuttryck, nästan hälften av dem var dömda brottslingar”. Författarna hävdar att “Alla fyra klassificerare utföra genomgående bra och producera bevis för giltigheten av automatiserade ansikte-inducerad slutsats om kriminalitet, trots den historiska kontroverser kring ämnet”, och tillägger att de hittat “några diskriminerande strukturella egenskaper för att förutsäga kriminalitet, såsom lip krökning, ögats inre hörn avstånd, och den så kallade näsa-mun vinkel.”

Detta papper är på arXiv pre-print server och har inte varit peer-reviewed, men sett till BBC, Susan McVie, Professor i Kvantitativa Kriminologi vid Universitetet i Edinburgh, konstaterade att “Vad denna forskning kan vara att plocka upp på är stereotyper som leder till att människor plockas upp av det straffrättsliga systemet, snarare än sannolikheten för någon kränkande…Det finns ingen teoretisk anledning att hur någon ser ut bör göra dem till en brottsling.”

Alla AI-styrda återkomsten av tanken att kriminalitet kan härledas från ansikts bilder skulle vara särskilt meningsfullt med tanke på det rådande politiska klimatet på båda sidor av Atlanten.

AI genomföras i företaget

AI: n är helt klart en utveckling av området, men det har inte slutat organisationer att arbeta vidare och genomföra den på ett — även om de är ofta inte medvetna om att de har gjort så. I juli detta år, Narrative Science, som utvecklar avancerad naturligt-språk-generationen (NLG) system, presenteras resultaten av en undersökning av 235 företagsledare som omfattar användningen av AI-program som drivs inom sina organisationer. Rubriken resultat från Outlook på Artificiell Intelligens i Företaget 2016:

AI antagande är nära förestående, trots att marknaden förvirring: även om endast 38 procent av gruppen undersökning bekräftade att de var med hjälp av AI, 88 procent av återstoden faktiskt använder AI-tekniker som prediktiv analys, automatiserad skriftlig rapportering och kommunikation, och röstigenkänning/svar.

Predictive analytics är dominerande företaget: 58 procent av de tillfrågade som används för data mining, statistik, modellering och maskin lära sig att analysera aktuella data och göra förutsägelser; på andra plats, ca 25 procent, var automatiserade skriftlig rapportering och/eller kommunikation och röstigenkänning/svar.

Bristen på data vetenskap talang fortsätter att påverka organisationer: 59 procent av de svarande som heter “brist på data vetenskap talang” som det främsta hindret för att realisera värdet av sin big data teknik. Nästan alla av de svarande (95%) som angett att de var skickliga på att använda sig av big data för att lösa problem eller skapa insikter också används AI-tekniker.

Företag som genererar mest värde från sina it-investeringar gör innovation till en prioritet: 61 procent av de svarande som hade en innovationsstrategi som används AI för att identifiera möjligheter i uppgifter som annars skulle ha missat, jämfört med endast 22 procent av de tillfrågade utan en sådan strategi.

Det finns säkert fler företag som är inblandade i AI än någonsin tidigare, och även en framväxande teknik stack’, som detta nyligen landskap infographic från Bloomberg Beta gör det klart:

ai-ml-landscape.jpg
Bild: Bloomberg Beta

I sin analys, Bloomberg Beta är Shivon Zilis och James Cham observera att version 3.0 landskapet innehåller en tredjedel fler företag än den första för två år sedan, och att “det känns ännu mer meningslöst att försöka vara heltäckande, eftersom detta bara skrapar på ytan av alla de aktiviteter som finns.” Detta är att vänta i ett tekniskt område det är racing till toppen av hype cycle, och det kommer att finnas många fler startups och M&A-aktivitet när marknaden mognar. Men som AI nystartade företag kommer att blomstra? Enligt Bloomberg Beta författare, “Företag ser vi framgångsrikt införande av en långsiktig bana kan paketera deras teknik som ett nytt problem-särskilda program för företag eller helt enkelt förändra en bransch sig som en ny aktör.”

Outlook

I det nära perspektivet, hur är AI sannolikt att göra framsteg?

“Det kommer att finnas fler varianter av neurala nätverk, och folk kommer att ägna mer uppmärksamhet åt vad som egentligen händer under en behandling, säger Nyans Nils Lenke. “Du vill att visualisera vad som händer på lager och hur de engagera sig med den information och göra den mer transparent som bit av bevis som ledde till beslut, så att nätet inte bara ger ett resultat, men påpekar också bevis och resonemang process.”

Lenke betonar också att AI inte alltid betyda att neurala nätverk: “Vi gör AI bygger på kunskap representation och regel-baserade system, och för vissa kritiska saker kan det vara bättre att gå med regel-baserade system där du har full kontroll över vilka regler som finns och som inte är det. Du kan ha det i din verktygslåda för att saker och ting när det är meningsfullt, där regler kan lätt bli kodifierad genom en människa.”

AI är på väg att bli relativt enkelt att genomföra, med data, algoritmer och datorresurser allt mer tillgängliga. Men det finns alltid den mänskliga faktorn att tänka på: människor kan ställa fel frågor, att använda bristfällig utbildning data, och acceptera utgång från algoritmer utan att undersöka dess ursprung.

Bör vi vara rädda för superintelligenta AI? Kanske, i sinom tid. Men mer pressingly, vi borde uppmärksamma vad människor kan göra med dagens AI-teknik. Eller som Bloomberg Beta är Zilis och Cham uttryckte det: “Under de närmaste åren, faran här är inte vad vi ser i en dystopisk sci-fi-filmer. Den verkliga faran av maskinen intelligens är att chefer kommer att göra dåliga beslut om vad artificiell intelligens förmåga att bygga.”