
Beeld: Getty Images/iStockphoto
Neurale netwerken, machine-learning systemen, predictive analytics, spraakherkenning, natuurlijke taal te begrijpen en andere componenten van wat is omschreven als ‘kunstmatige intelligentie (AI) worden momenteel in een boom: het onderzoek vordert gestaag, media-aandacht is op een all-time high, en organisaties worden meer en meer de uitvoering van AI oplossingen in de uitoefening van automatisering-gedreven efficiëntie.
Het eerste wat u moet bepalen is wat we het niet over, dat is menselijk niveau AI — vaak aangeduid als ‘strong AI’ of ‘kunstmatige algemene intelligentie’ (AGI). Een onderzoek onder de vier groepen van deskundigen in 2012/13 door AI-onderzoekers Vincent C. Müller en Nick Bostrom melding van een 50 procent kans dat AGI zou worden ontwikkeld tussen 2040 en 2050 zal stijgen tot 90 procent door 2075; het zogenaamde “superintelligentie’ — die Bostrom definieert als “een verstand, dat veel groter is dan de cognitieve prestaties van de mens in vrijwel alle domeinen van belang” – werd verwacht, 30 jaar na het behalen van AGI (Fundamentele Problemen van Artificial Intelligence, Hoofdstuk 33). Deze dingen zullen gebeuren, en het is zeker zorgvuldig moet, maar het gebeurt niet nu.
Wat er nu gebeurt, in een versneld tempo, is de toepassing van AI algoritmen om allerlei processen die van grote invloed kan hebben op het leven van de mensen op het werk, thuis en als ze rond te reizen. Hoewel de hype rond deze technologieën is het naderen van de ‘piek van verwachtingen’ (sensu Gartner), er is een potentieel vliegen in de AI zalf: de werking van veel van deze algoritmen zijn niet geverifieerd-hetzij omdat ze de eigen activa van een organisatie of omdat ze ondoorzichtig zijn door hun aard.
Als deze niet goed wordt aangepakt, die bezorgdheid zou kunnen helpen om te schakelen overhyped verwachtingen voor AI in een backlash (Gartner ‘ s ‘trog van desillusie’).
Veel AI-gerelateerde technologieën zijn naderende of reeds hebben bereikt, de ‘piek van de opgeblazen verwachtingen’ in Gartner ‘ s Hype Cycle, met de backlash-driven ‘trog van desillusie’ op de loer liggen.
Afbeelding: Gartner / Aantekeningen: ZDNet
Hier is een voorbeeld: in Mei van dit jaar, COMPAS, een eigen risicobeoordeling algoritme dat is op grote schaal gebruikt om te beslissen over de vrijheid of de opsluiting van verdachten passeren van het AMERIKAANSE strafrechtelijk systeem werd aangevoerd door online onderzoeksjournalistiek website ProPublica systematisch bevooroordeelde tegen Afro-Amerikanen in vergelijking met blanken. Hoewel Northpointe (de for-profit bedrijf achter COMPAS) betwist ProPublica van statistische analyse, het genereren van een nieuwe controverse, het wijdverbreide gebruik van nauw bewaakt gepatenteerde algoritmes in gevoelige gebieden, zoals het strafrecht is een reden tot bezorgdheid op zijn minst.
Soms, de afwijking kan worden ingevoerd via de gegevens op die neurale netwerk-gebaseerde algoritmen zijn opgeleid. In juli van dit jaar, bijvoorbeeld, Rachael Tatman, een National Science Foundation Graduate Research Fellow in de Afdeling Taalkunde aan de Universiteit van Washington, vond dat de Google-spraakherkenning systeem beter presteerden voor de mannelijke stem dan vrouwelijke degenen wanneer automatische ondertiteling van een steekproef van YouTube-video ‘ s, een resultaat dat ze toegeschreven aan een ‘onevenwichtige opleiding stelt’ met een overwicht van mannelijke sprekers. Als Tatman opgemerkt, een aantal onjuiste YouTube onderschriften zijn niet van plan om eventuele schade kan veroorzaken, maar soortgelijke spraakherkenning vooroordelen in de medische of verbonden-toepassingen in auto ‘ s, bijvoorbeeld, zou een andere zaak geheel.
Hoewel de AI is vaak gelijkgesteld met ‘diep leren’ neurale netwerken, is de kunstmatige intelligentie van het ecosysteem omvat vele soorten van het algoritme.
Afbeelding: Narrative Science
Neurale netwerken als ‘black boxes’
Neurale netwerken zijn een bepaalde zorg niet alleen omdat ze een belangrijk onderdeel van veel AI-toepassingen — met inbegrip van beeld-en spraakherkenning, natuurlijke taal te begrijpen en machine vertaling — maar ook omdat ze iets van een ‘black box’ als het gaat om het ophelderen van precies hoe hun resultaten zijn gegenereerd.
Neurale netwerken worden zo genoemd omdat ze na te bootsen, om een graad, de manier waarop de menselijke hersenen is gestructureerd: ze zijn opgebouwd uit lagen van onderling verbonden, neuron-achtige, knooppunten en bestaat uit een input-laag, een uitgang laag en een variabel aantal intermediaire ‘verborgen’ lagen — ‘diep’ neurale netwerken alleen hebben meer dan één verborgen laag. De knooppunten zelf uitvoeren van relatief eenvoudige wiskundige berekeningen, maar tussen hen, na de training, ze kunnen proces ongeziene data en het genereren van correcte resultaten op basis van wat geleerd is van de training data.
De structuur en de training van de diepe neurale netwerken.
Afbeelding: Nuance
Sleutel tot de opleiding is een proces genaamd ‘back propagation’, in die geëtiketteerd voorbeelden zijn ingevoerd in het systeem en de intermediaire-instellingen voor laag worden geleidelijk aangepast totdat de uitgang laag biedt een optimale match tot wijziging van de invoerlaag.
Het is één ding om een model te creëren dat geeft nauwkeurige resultaten met ongeziene gegevens, maar-zoals eerder besproken-in vele real-world toepassingen wenselijk is te onderzoeken van de interne besluitvorming in detail.
Nils Lenke, Senior Director, Corporate Research bij Nuance, erkent het probleem: “Het is een zeer interessant en relevant onderwerp, omdat in vergelijking met, zeg, regel-gebaseerde systemen, neurale netwerken of andere machine learning algoritmen zijn niet transparant. Het is niet altijd duidelijk wat er gebeurt in — laat je de netwerk om zich te organiseren, maar dat betekent eigenlijk dat het niet om zich te organiseren: het hoeft niet per se je vertellen hoe je het deed.”
Turend in de zwarte doos
Deze ‘black box’ – probleem werd behandeld in een recente paper van MIT ‘ s Computer Science and Artificial Intelligence Laboratory (CSAIL), die onderzocht neurale netwerken getraind op tekst gebaseerde gegevens met behulp van een systeem dat bestaat uit twee modules — een ‘generator’ en een ‘encoder’. De generator onttrekt belangrijke segmenten van de tekst van de opleiding van gegevens, het geven van hoge scores te kort, samenhangend snaren; deze worden vervolgens doorgegeven aan de afzuigkap, die voert de classificatie taak. Het doel is het maximaliseren van zowel de generator scores en de juistheid van de afzuigkap en voorspellingen.
Om te beoordelen hoe goed dit systeem werkt, één van de training datasets de onderzoekers gebruikten was een set van ongeveer 1.500 beoordelingen van een website gewijd aan het bier. Een duizend of zo van deze beoordelingen had zijn geannoteerd met de hand aan te geven in de correspondentie tussen bepaalde zinnen en recensent scores (1-5) voor het uiterlijk, geur en smaak. Als de generator/afzuigkap neurale netwerk in geslaagd om de exacte dezelfde zinnen en correleren ze met dezelfde recensent ratings, dan zou de uitoefening van mens-achtige uitspraak.
De resultaten waren indrukwekkend, met het neurale netwerk en toont een hoge niveaus van de overeenkomst met de menselijke annotators op uiterlijk (96.3%) en de geur (95.1%), hoewel het daar iets minder zeker van zijn voeten op de hardere concept van verhemelte (80.2%).
Volgens MIT de onderzoekers hebben toegepast in hun redenering-extractie methode om medische gegevens, zowel tekst-gebaseerde (pathologie verslagen op de borst biopten) en op basis van een afbeelding (mammografie), hoewel niet gepubliceerd rapport op dit werk is nog niet beschikbaar.
Een steuntje in de menselijke hand.
Dit zijn bemoedigende ontwikkelingen, maar wat te doen als een huidige AI-systeem kan niet worden vertrouwd om belangrijke beslissingen te nemen op zijn eigen?
Nuance Nils Lenke worden de opties: “Het eerste wat u nodig hebt voor meer specifieke gevallen is het vertrouwen van de maatregel, zo krijg je niet alleen een gevolg van het neurale netwerk, maar ook krijgt u een begrip van hoe zeker het is dat het voor het juiste resultaat. Dat kan u helpen beslissingen te nemen — heeft u behoefte aan aanvullend bewijs, heeft u behoefte aan een menselijk wezen om te kijken naar het resultaat, kan je het op het eerste gezicht?”
“Dan moet je kijken naar de taken bij de hand,” Lenke blijft. “Voor sommige, het is niet echt van belang als u niet volledig begrijpt wat er gebeurt, of zelfs als het netwerk is verkeerd. Een systeem dat suggereert muziek, bijvoorbeeld: alles dat fout kan gaan is, kunt u luisteren naar een saai stuk muziek. Maar met toepassingen zoals enterprise customer service, waar de transacties zijn betrokken, of van computer-assisted klinische documentatie verbetering, wat we meestal doen is er, we niet de AI in isolement, maar we hebben het samen met die van een mens.”
Een mens-assisted virtual assistant (HAVA) geïmplementeerd in een enterprise customer service toepassing.
Afbeelding: Nuance
“In de customer-care arena noemen we dat HAVA, of de Mens-Assisted Virtual Assistant,” legt Lenke. “Het interessante hier is, hebben we iets genaamd ‘passage ‘ ophalen’: zeggen dat de klant een vraag stelt, hetzij via spraakherkenning of getypte invoer van een chat-of web-interface van de virtuele assistent gaat door de feiten en gegevens die kunnen worden een verzameling van handleidingen en documenten verstrekt door de vennootschap, — en vindt relevante passages, die zij voorlegt aan de menselijke agent, die maakt de definitieve oproep. Het is efficiënter, omdat de AI presenteert de relevante informatie die aan hem of haar.”
“Ik denk dat je kunt zien van Microsoft’ s ervaring met de chat bot dat het zetten van de AI in een modus waar geen toezicht is, kunnen risico ‘ s draagt,” Lenke voegt. “Dat is waarom wij geloven dat deze curator manier, waar een mens kijkt naar het materiaal en het laatste gesprek, is de juiste manier om het te doen voor kritische toepassingen.”
Ethiek en AI
Veel mensen-waaronder Stephen Hawking, Elon Musk en toonaangevende AI-onderzoekers hebben hun bezorgdheid uitgesproken over het AI zou kunnen ontwikkelen, wat leidt tot de oprichting van organisaties als Open AI en Samenwerking op AI-gericht op het vermijden van de valkuilen.
Het doel van Open AI, opgericht in December 2015, en voorgezeten door Elon Musk en Sam Altman, is “vooraf digitale intelligentie in de weg, dat is het meest waarschijnlijk om te profiteren van de mensheid als geheel, niet gehinderd door een behoefte om het genereren van financieel rendement.”
Partnerschap op AI — aangekondigd in September 2016 met stichtende leden Amazon, Facebook, Google, IBM en Microsoft — gericht op de ondersteuning van onderzoek en het adviseren van de beste praktijken, vooraf openbaar inzicht in en bewustzijn van AI, en het creëren van een open platform voor discussie en betrokkenheid.
Meest recent, Carnegie Mellon University aangekondigd een $10 miljoen geschenk van een advocatenkantoor (K&L Gates) voor de studie van ethische en politieke kwesties rond de kunstmatige intelligentie en de andere computing technologieën.
Een perfect voorbeeld van waarom de ethiek van de AI moet toezicht kwam in een recente paper getiteld Automatische Gevolgtrekking op het gebied van Criminaliteit met behulp van Face-Beelden door twee onderzoekers van de Shanghai Jiao Tong Universiteit. In een storende echo van lange-diskrediet probeert te correleren fysionomie met de neiging tot criminaliteit, Xiaolin Wu en Xi Zhang vier classifiers, met inbegrip van een convolutional neurale netwerk, met behulp van “afbeeldingen van het gezicht van 1,856 echte personen gecontroleerd voor ras, geslacht, leeftijd en gezichtsuitdrukkingen, bijna de helft van hen waren veroordeelde criminelen”. De auteurs beweren dat “Alle vier de classifiers constant goed presteren en produceren van bewijs voor de geldigheid van geautomatiseerde face-geïnduceerde relaties op het gebied van criminaliteit, ondanks de historische controverse rond het onderwerp’, en voegt toe dat ‘ sommige discriminerende structurele functies voor het voorspellen van criminaliteit, zoals lip kromming, oog binnenhoek afstand, en de zogenaamde neus-mond hoek.”
Dit papier is op het arXiv pre-print server en niet peer-reviewed, maar spreekt tot de BBC, Susan McVie, Hoogleraar Kwantitatieve Criminologie aan de Universiteit van Edinburgh, merkte op dat “Wat dit onderzoek kan worden in het oppikken is stereotypen die ertoe leiden dat mensen opgepikt wordt door het strafrechtelijk systeem, in plaats van de kans van iemand te beledigen…Er is geen theoretische reden dat de manier waarop iemand kijkt ze in een crimineel.”
Een AI-gestuurde opleving van het idee dat criminaliteit kan worden afgeleid uit afbeeldingen van het gezicht zou bijzonder nefast is, gezien het huidige politieke klimaat aan beide zijden van de Atlantische oceaan.
AI implementatie in de onderneming
AI is duidelijk een te ontwikkelen gebied, maar dat is niet gestopt organisaties smeden en de uitvoering ervan, zelfs indien zij zijn vaak niet volledig op de hoogte zij dit hebben gedaan. In juli van dit jaar, Verhalende de Wetenschap, die zich ontwikkelt geavanceerde natuurlijke-taal-generatie (NLG) systemen, presenteerde de resultaten van een enquête van 235 business executives dekking van de implementatie van AI-aangedreven toepassingen binnen hun organisaties. Kop bevindingen van Outlook op de Kunstmatige Intelligentie in de Onderneming 2016 waren:
AI goedkeuring dreigt, ondanks marktplaats verwarring: hoewel slechts 38 procent van de survey group bevestigd dat ze met behulp van AI, 88 procent van de rest eigenlijk wel gebruik van AI technieken zoals predictive analytics, geautomatiseerde schriftelijke rapportage en communicatie, en de erkenning van de stem/reactie.
Predictive analytics is het domineren van de onderneming: 58 procent van de respondenten gebruikt data mining, statistiek, modellering en machine learning aan het analyseren van de huidige gegevens en voorspellingen te maken; in de tweede plaats, op ongeveer 25 procent, werd geautomatiseerd schriftelijke rapportage en/of communicatie en spraakherkenning/reactie.
Het tekort van data science talent blijft van invloed zijn op organisaties: 59 procent van de respondenten met de naam ‘tekort aan data science talent’ als de belangrijkste barrière voor het realiseren van de waarde van hun big data-technologieën. Bijna alle respondenten (95%) die aangaven dat ze waren bedreven in het gebruik van big data om het oplossen van zakelijke problemen of het genereren van inzichten ook gebruikt AI technologieën.
Bedrijven die het genereren van de meest waarde van hun investeringen in technologie maken innovatie een prioriteit: 61 procent van de respondenten die een innovatie strategie gebruikt AI herkennen van kansen in de gegevens die anders zou worden gemist, tegenover slechts 22 procent van de respondenten zonder een dergelijke strategie.
Er zijn wel meer bedrijven die betrokken zijn bij AI dan ooit tevoren, en ook een nieuwe ‘technology stack’, zoals dit de afgelopen landschap infographic van Bloomberg Beta duidelijk maakt:
Afbeelding: Bloomberg Beta
In hun analyse, Bloomberg Beta ‘ s Shivon Zilis en James Cham merk op dat de versie 3.0 landschap bevat een derde meer bedrijven dan de eerste twee jaren geleden, en dat “het voelt nog meer zinloos om te proberen volledig te zijn, aangezien dit krassen op het oppervlak van alle activiteiten die er zijn.” Dit is te verwachten in een technologie die de race naar de top van de hype cycle, en er zal veel meer startups en M&A-activiteit als de markt afloopt. Maar die AI startups zal bloeien? Volgens de Bloomberg-Beta auteurs, “Bedrijven zien we het succesvol betreden van een lange termijn traject kan verpakken hun technologie als een nieuw probleem-specifieke applicatie voor enterprise of gewoon transformeren van een industrie zelf als die van een nieuwkomer.”
Outlook
In de buurt van de termijn, hoe is de AI waarschijnlijk vooruitgang?
“Er worden meer varianten van neurale netwerken, en de mensen zullen meer aandacht besteden aan wat er eigenlijk gebeurt tijdens het verwerken,” zegt Nuance Nils Lenke. “Je wilt visualiseren wat er gebeurt op de lagen en hoe ze omgaan met de gegevens, en het meer transparant welk stuk van het bewijs heeft geleid tot die beslissing te nemen, dus dat het netwerk levert niet alleen een resultaat, maar wijst ook op het bewijs en de redenering.”
Lenke ook benadrukt dat de AI niet altijd dat neurale netwerken: “We doen ook AI op basis van kennis van de vertegenwoordiging en de regel-gebaseerde systemen, en voor een aantal cruciale dingen is het wellicht beter om te gaan met regel-gebaseerde systemen waar je bent in de volledige controle over welke regels zijn er en die zijn er niet. U kunt dat in uw toolbox voor dingen waar het zinvol is, waarin regels kunnen eenvoudig worden vastgelegd door een mens.”
AI is steeds relatief eenvoudig te implementeren, met gegevens, algoritmen en it-middelen steeds beschikbaar. Maar er is altijd nog de menselijke factor om te overwegen: de mens kan stellen de verkeerde vragen, gebruik gebrekkige opleiding van gegevens en het accepteren van de output van algoritmen zonder te vragen naar de herkomst.
Moeten we bang zijn superintelligent AI? Misschien naar verloop van tijd. Maar meer pressingly, moeten we aandacht besteden aan wat mensen kunnen doen met de huidige AI-technologie. Of als Bloomberg Beta ‘ s Zilis en Cham zegt: “In de komende paar jaar, het gevaar hier is dat niet wat we zien in dystopische sci-fi films. Het echte gevaar van de machine-intelligentie is dat leidinggevenden slechte beslissingen te nemen over wat voor machine-intelligentie mogelijkheden om te bouwen.”