Een Berkeley mash-up van AI benaderingen belooft een continu leerproces

0
139

Soms heeft de vooruitgang in de AI, zijn een gevolg van het gecombineerde effect van bepaalde wegen van onderzoek dat vooruitgang hebben geboekt in de afgelopen jaren.

Dit is het geval voor een zeer interessante recente beetje van het werk van de Universiteit van Berkeley laboratorium voor kunstmatige intelligentie, in het bijzonder, professor Sergey Levine en collega Dr. Chelsea Finn, en Sham Kakade, een toonaangevende machine learning theorie-expert en zijn leerling, Aravind Rajeswaran, aan de Universiteit van Washington.

U kan worden vertrouwd met Levine van de vele projecten die hij heeft gedaan met robots de loop van de jaren. Levine heeft gewerkt om te bewegen robotics meer en meer in de richting van een samenhangende aanpak te “leren”, waarbij een robot, of, haar tegenhanger in een computersimulatie, een “agent,” leert leren, om zo te spreken. Het doel is om de opleiding van een computer systeem leiden tot prestaties op nieuw, nooit-vóór-gezien de taken. (Enige achtergrondinformatie over de aanpak kan worden gevonden in een blog post op de officiële Nvidia corporate blog.)

De uitdaging van het nieuwe werk kan samengevat worden als het geven van neurale netwerken een mogelijkheid om niet zomaar te generaliseren vanuit een aangeleerde taak naar de andere, maar om voortdurend aan te scherpen, zodat het vermogen om te generaliseren over de tijd, de blootstelling aan nieuwe taken. En, om dit te doen met een minimum van gegevens, vereist als voorbeelden, gegeven het feit dat veel nieuwe taken een neuraal netwerk confronteert de loop van de tijd kan niet veel van de gegevens die beschikbaar zijn, of, ten minste, niet veel “label” trainingsgegevens.

Het resultaat is beschreven in een artikel van de week, “Online Meta-Leren’, geplaatst op het arXiv pre-print server.

Het huidige onderzoek heeft echo ‘s in Levine’ s andere werk dat dichter bij robotica per se. ZDNet terug in oktober vertelde hoe Levine treinen robot simulaties — agenten — af te leiden beweging van meerdere frames van de video ‘ s van YouTube. Er is een parallel met de online meta-leren, dat de computer is te leren hoe een uitbreiding van zijn begrip over de voorbeelden in de tijd, het slijpen van zijn vermogen om te begrijpen, in een zin.

berkeley-online-meta-learning-tasks-feb-2019.png

De aanpak die ertoe leiden dat auteurs Finn en Rajeswaran streven naar het combineren van twee verschillende benaderingen die de teams hebben uitgebreid onderzocht in de afgelopen jaren: meta-leren en online leren.

Ook: het Bekijken van YouTube video ‘ s kan op een dag laat robots kopie mensen

In de meta-leren, een neuraal netwerk is een soort pre-opgeleid op een aantal taken, die vervolgens zorgt voor het bereiken van een vorm van overdracht van kennis en vaardigheden als het is getest op de nieuwe uitdagingen die verschillend zijn van wat er werd getraind op. Levine en zijn team ontwikkelde een uitgebreid systeem voor dit terug in 2017, genaamd “model-agnostisch meta-leren’ of ‘ MAML,” een strategie die kan worden toegepast in een aantal verschillende neurale netwerken, van klassiek “feed-forward” netwerken “convolutional neurale netwerken.”

De auteurs gebouwd op dat MAML aanpak, maar poogt op te lossen met een van zijn zwakke punten: zijn vermogen om te generaliseren wezen stopt na de eerste pre-training, het niet passen in de tijd. Om dat vast te stellen de auteurs trok na een lange lijn van onderzoek, online leren. Online leren, een neuraal netwerk houdt verbeteren door te vergelijken hoe verschillende mogelijke configuraties van de parameters uitgevoerd na verloop van tijd op elke nieuwe taak. Het netwerk probeert op deze manier een oplossing te vinden voor de parameters die minimaliseert “spijt,” het verschil tussen de werkelijke prestatie op een taak en optimale prestaties.

De auteurs iets genaamd “volg de meta-leider,” dat is een woordspeling combineren van de term meta-leren, samen met de naam voor één van de meest succesvolle online het leren van algoritmen, “volg de leider” voor het eerst ontwikkeld in de jaren 1950 door Jim Hannan voor het domein van de speltheorie.

De agent, in dit geval, wordt gepresenteerd met ronde na ronde van de taken van een familie van taken, in dit geval dingen, zoals het transformeren van beelden van de getallen in de klassieke MNIST gegevens of het uitvoeren van “pose voorspelling” van objecten in een scène, of het doen van een classificatie van objecten. Na elke ronde worden de agent probeert te minimaliseren dat spijt functie door fine-tuning van de gewichten, of parameters, die het heeft ontwikkeld in de tijd. Dit alles gebeurt via de klassieke neurale netto-optimalisatie aanpak, stochastische gradient descent.

De auteurs laten zien van een aantal indrukwekkende resultaten te benchmarken op deze taken versus voorafgaande benaderingen, zoals, bijvoorbeeld, een zogenaamde “Trein op Alles,” of “TEEN.”

Moet lezen

‘AI is heel, heel stom,’ zegt Google AI leider (CNET)Hoe krijg je al die Google Assistent van de nieuwe stemmen nu (CNET)Unified Google AI afdeling een duidelijk signaal van AI ‘ s toekomst (TechRepublic)Top 5: Dingen om te weten over AI (TechRepublic)

De paper eindigt met de constatering dat de aanpak “in zekere zin, een meer natuurlijke perspectief op het ideaal van de echte wereld, het leren van de procedure,” omdat het bestaat uit “een intelligent agent interactie met een steeds veranderende omgeving.” Als ze beweren, dat feit “, moet gebruik maken van streaming ervaring aan zowel de meester van de taak bij de hand, en meer bedreven in het leren van nieuwe taken in de toekomst.”

Er zijn een aantal beperkingen, echter. Een grote rekenkracht. Een aantal verfijningen nodig zal zijn in de toekomst om de data van de afgelopen taken, om te komen met een “rekenkundig goedkoper” algoritmen.

“Terwijl we laten zien dat onze methode effectief kan leren bijna 100 taken in volgorde zonder een aanzienlijke belasting op het berekenen of geheugen, schaalbaarheid blijft een zorg,” schrijven ze. “Kan een meer streaming algoritme als spiegel afdaling die niet slaan alle ervaringen uit het verleden succesvol te zijn?”

Vorige en aanverwante dekking:

Wat is AI? Alles wat je moet weten

Een executive gids voor kunstmatige intelligentie, van machine learning en algemene AI-neurale netwerken.

Wat is diep leren? Alles wat je moet weten

De lowdown op diep leren: van hoe het zich verhoudt tot het bredere veld van machine-leren door te zien hoe aan de slag met het.

Wat is machine learning? Alles wat je moet weten

In deze gids wordt uitgelegd wat ‘machine learning’ is, hoe het is in verband met kunstmatige intelligentie, hoe het werkt en waarom het belangrijk is.

Wat is cloud computing? Alles wat u moet weten over

Een introductie van cloud computing recht vanaf de basis tot IaaS en PaaS -, hybride -, public en private cloud.

Verwante artikelen:

Google AI surft op het “gamescape” te veroveren spel theorie
Dit is wat AI eruit ziet (zoals geschetst door AI)
Google DeepMind teams met toonaangevende 3D-game dev platform
DeepMind AI plekken vroege tekenen van de ziekte van het oog

Verwante Onderwerpen:

Big Data Analytics

Digitale Transformatie

CXO

Het Internet van Dingen

Innovatie

Enterprise Software