IBM Watson, Harvard en MIT werken op algoritmen die het voorspellen van hart-aanvallen
Het drie jaar durende project heeft tot doel om tot AI modellen die kunnen analyseren genomische gegevens, medische gegevens en biomarkers voorspellen het ontstaan van hartaanvallen en andere gebruikelijke voorwaarden.
De smartphone video game Flappy Vogel werd verwijderd van smartphones in 2014 door de maker, Dong Nguyen, omdat het te verslavend. Maar het programma leven als een bron van inspiratie te diep leren onderzoekers.
Ook: Eerlijkheid in de AI, StarCraft Edition
Specifiek, International Business Machines wetenschappers deze week onthuld onderzoek naar de werking van machines voortdurend kunnen leren taken, waaronder het spelen van Flappy Vogel, het verbeteren van de loop van de tijd eerder dan het leren van een niveau van spelen en te stoppen.
Bekend als een leven lang leren, of continu leren, het gebied is al decennia lang bestudeerd, maar blijft een formidabele uitdaging.
Naast het aanbieden van een belangrijk nieuw instrument voor AI, het werk is iets van een meditatie over wat het betekent om te kunnen leren, zowel vooruit als achteruit in de tijd.
Flappy Vogel was een van hun belangrijkste tests. In dat spel, je hebt om te vliegen de kleine geanimeerde vogel veilig door middel van een verzameling van zuilen. De IBM-onderzoekers gedefinieerd elke wijziging in het aspect van het spel, zoals de hoogte van de pilaren, als een nieuwe taak. Neurale netwerken, dan moeten extrapoleren van de ene taak naar de volgende door het maximaliseren van wat al is geleerd in de voorafgaande taken.

IBM ‘ s werken met MIT en Stanford University tests gewicht te delen voor het spelen van twee video-games, “Catcher” en “Flappy Vogel.”
IBM, MIT, Stanford University.
×
ibm-spelen-flappy-vogel-april-2019.png
De naam Meta-ervaring replay, of MER, het werk is een beetje een mash-up tussen een paar van eerdere benaderingen in de literatuur van neurale netwerken.
De werken, leren Te Leren en niet te Vergeten Door het Maximaliseren van de Overdracht En het Minimaliseren van Storingen, werd geschreven door een groep van IBM, MIT en Stanford University, bestaande uit Matteüs Riemer, Ignacio Gevallen, Robert Ajemian, Miao Liu, Irina Rish, Yuhai Tu, en Gerald Tesauro, en is geplaatst op het arXiv pre-print server. Het papier wordt gepresenteerd op de Internationale Conferentie over het Leren van Voorstellingen, die plaatsvindt in Mei.
Het probleem dat zich voordoet in een continu leerproces is al decennia lang bestudeerd. Het werd geformuleerd door de onderzoekers Gail Timmerman en Stephen Grossberg in 1987. Het heet de stabiliteit-plasticiteit dilemma. Een systeem voor kunstmatige intelligentie, ze schreef, “in staat van plasticiteit om te leren over de belangrijke nieuwe gebeurtenissen, maar het moet ook stabiel blijven in reactie op irrelevante of vaak herhaalde gebeurtenissen.”
In de woorden, volgens Riemer en zijn team, het gewicht van een diep leren netwerk moet worden ontwikkeld op een manier die behoudt en uitbreidt wat is geoptimaliseerd op elk punt in de tijd. Het doel is om interferentie te minimaliseren, de verstoring van wat geleerd is, en tegelijkertijd het maximaliseren van de toekomst leren door het toestaan van gewichten te veranderen op basis van nieuwe informatie.
Om dit te doen, de auteurs met elkaar vermengd twee stammen van de optimalisatie van het gewicht: Een zogenaamde ervaring replay, en een zogenaamde Reptiel.
In het eerste geval, ze zijn gebaseerd op code die is ontwikkeld door Facebook onderzoekers David Lopez-Paz en Marc ‘ Aurelio Ranzato in 2017, genaamd Verloop van Episodische Geheugen voor Continu Leren, of GEM. GEM maakt gebruik van verschillende technieken om te voorkomen dat het wissen van de afgelopen gewichten en zorgen voor stabiliteit.
Ook: Google AI surft op het “gamescape” te veroveren spel theorie
Reptielen, aan de andere kant, ontwikkelde vorig jaar door Alex Nichol, Joshua Achiam en John Schulman van OpenAI, richt zich op hoe om te gaan met het leren van het verleden taken te helpen bij het leren van nieuwe taken zoals ze worden aangetroffen, wordt een formulier van overdracht leren.
IBM onderzoekt de “stabiliteit-plasticiteit dilemma,” en de melding van het gewicht in de tijd.
IBM, MIT, Stanford University
×
ibm-onderzoekt-transfer-interferentie-trade-off.png
De uitdaging van plasticiteit-stabiliteit is te verzoenen met het verleden en het heden gewicht selecties. De sleutel is dat het verloop van de procedure optimalisatie voor ieder monster van gegevens, moet worden additief. Het moet altijd leiden tot een beter gewicht selecties op elk punt in de tijd, niet degenen die afbreuk doen aan wat is ontwikkeld, noch die houden van het gewicht verbetering langs de lijn.
De auteurs besloten dat de GEM en Reptielen zijn beperkt in de zin dat ze alleen maar bezig zijn met een richting van de tijd.
GEM wil om het verleden te behouden, door het beschermen van het verleden gewichten en Reptielen wil om te veranderen gewichten alleen op het moment dat er nieuwe voorbeelden worden geleerd. Wat nodig is in plaats daarvan beweren Riemer en collega ‘ s, is een begrip symmetrie, waarbij de waarde van de gewichten is verbeterd in een mate die in beide richtingen van tijd.
“In ons werk proberen we te leren van een generalizable theorie over het gewicht te delen, dat kan leren van invloed zijn op de verdeling van de verlopen en niet alleen in het verleden en het heden, maar ook in de toekomst.”
Ook: AI ain ‘ t no student: DeepMind bijna flunks high school math
Het is een kwestie van “uitlijnen” de hellingen “en dus gewicht te delen”, schrijven ze, “aan de overkant van voorbeelden ontstaat [sic] zowel voorwaarts en achterwaarts in de tijd.”
“Wij willen de invloed van de gradiënt hoeken van alle taken op alle punten in de tijd,” in plaats van voor een enkel punt in de tijd, schrijven zij.
Om te zoeken naar een soort van ideale gradient descent, ze “interleave” voorbeelden uit het verleden met elk nieuw voorbeeld van data, genomen op een tijdstip in, en gebruik een objectieve functie optimaliseert de gradiënt over de huidige en vroegere voorbeelden.
De auteurs getest op hun aanpak op twee verschillende neurale netwerk benchmark-tests. De ene is een versie van de traditionele “MNIST” data-set, handgeschreven, cijfers, ontwikkeld door het National Institute of Standards and Technology. Het doel is om te identificeren met het label voorbeelden van cijfers geschreven in een verscheidenheid van vormen en via permutaties zoals rotatie.
De tweede test is de flappy vogel test, met behulp van een reinforcement learning aanpak, gebaseerd op een bestaande vorm van neurale netwerk dat bekend staat als een Diepe V-Netwerk of DQN.
In beide gevallen, de auteurs citeren een superieure nauwkeurigheid van de scores in relatie tot benchmarks, zeker in vergelijking met Lopez-Paz en Ranzato ‘ s GEM.
Ook: Google StarCraft II overwinning toont AI verbetert via diversiteit, uitvinding, geen reflexen
De DQN uitgerust met een MER, schrijven ze, “wordt een Platinum player op de eerste taak als het leren van de derde taak” in Flappy Vogel.
“DQN-MER vertoont de soort van het leren van patronen verwacht van mensen voor deze games, terwijl een standaard DQN strijd om te generaliseren als het spel verandert en kennis behouden over de tijd,” schrijven ze.
Op de top van de vooruit en terug over hellingen, tussen verleden en toekomst, er zijn een paar opmerkelijke items in dit werk.
Voor een ding, de neurale netwerken omgaan met het feit dat de opeenvolgende taken zijn verschillende distributies van gegevens, wat bekend staat als “niet-stationariteit.” Dat vormt een uitdaging voor de netwerken om te generaliseren. In tegenstelling tot in sommige andere instellingen, de neurale netwerken opgebouwd in dit geval geen duidelijk signaal dat elke nieuwe taak is, in feite, het nieuwe. De regels van het spel te veranderen en het netwerk gewoon past.
Moet lezen
Wat is AI? Alles wat je nodig hebt om knowWhat is diep leren? Alles wat je nodig hebt om knowWhat is van ‘machine learning’? Alles wat je nodig hebt om knowWhat is cloud computing? Alles wat je moet weten
Wat meer is, in plaats van verwerkt in batches, zoals gebruikelijk in de meeste neurale netwerken, elk nieuw voorbeeld van gegevens is een enkel voorbeeld, een voor een verwerkt. Dat heeft belangrijke implicaties voor het kunnen leren van verspreide signalen in de gegevens.
Twee belangrijke vragen blijven voor het werk. De ene is de vraag of de diversiteit van taken in iets als Flappy Vogel is uitdagend genoeg. IBM ‘ s Riemer gereageerd in een e-mail aan ZDNet dat het werk op een meer diverse sets van taken in de tijd.
“We zijn verheugd om het uit te proberen op een meer uitgebreide en gevarieerde collecties van taken in de toekomst,” aldus Riemer.
Tegelijkertijd stelt hij de subtiliteit van taken hier is waardevol. “Gezien subtiele non-stationarities in milieu-omstandigheden kan het interessant en onthullend als goed,” zegt hij. “Als niet-stationarities in de omgeving zijn zeer ernstig is, kan het gemakkelijk maken voor de modellen om ze op te sporen. Als een resultaat, merken meer subtiele veranderingen kunnen soms een weerspiegeling zijn van een meer verfijnd vermogen zich aan te passen aan de veranderende omstandigheden.”
Ten tweede, de taak van Flappy Vogel is een “speeltje” probleem, in plaats van een real-world challenge. Riemer zegt het team streeft naar een verbreding van de werken omvatten de echte uitdagingen in de toekomst. Ze hebben onlangs het verkennen van omgevingen die nog meer niet-stationaire zowel in termen van met een grote hoeveelheid meer verschillende ‘taken’ en in termen van het hebben van minder voorbeelden per ‘taak’.”
Er is veel te leren van eenvoudige problemen, aldus Riemer. Op hetzelfde moment, “het belang van ons team bij IBM is zeker voor het testen van de grenzen van deze mogelijkheden en het bouwen van AI oplossingen die uiteindelijk kunnen worden gebruikt voor het oplossen van echte problemen voor onze klanten.”
Kunstmatige Intelligentie
AI en big data versus ethiek: Hoe zorg je ervoor dat je de kunstmatige intelligentie project is op weg de juiste manier
De klantenservice is klaar voor een AI-revolutie
Kunstmatige intelligentie en de toekomst van de smartphone-fotografie
IBM AI demonstratie genoeg voor een grote killer app?
IBM roert controverse door het delen van foto ‘ s voor AI gezichtsherkenning (CNET)
Bedrijven krijgen niet hoe AI cybersecurity tools werken (TechRepublic)
Verwante Onderwerpen:
Big Data Analytics
Digitale Transformatie
CXO
Het Internet van Dingen
Innovatie
Enterprise Software