Wat is diep leren? Alles wat je moet weten

0
156

Nul

Wat voor soort problemen niet diep leren oplossen?

Zoals eerder genoemd, diep neurale netwerken blinken uit in het maken van voorspellingen op basis van grotendeels ongestructureerde gegevens. Dat betekent dat ze leveren de beste prestatie in zijn klasse in gebieden zoals de spraak-en beeldherkenning, waar ze werken met rommelige gegevens zoals opgenomen spraak en foto ‘ s.

Moet je altijd diep leren in plaats van ondiepe machine learning?

Nee, want diep leren kan erg duur zijn van een computationeel oogpunt.

Voor niet-triviale taken, de opleiding van een diep-neurale netwerk zal het vaak nodig de verwerking van grote hoeveelheden gegevens met behulp van clusters van high-end Gpu ‘ s voor vele, vele uren.

Gezien de top-of-the-range Gpu ‘ s kan kosten duizenden dollars te kopen, of tot $5 per uur te huur in de cloud, het is onverstandig om direct aan diep leren.

Als het probleem kan worden opgelost met behulp van een eenvoudiger machine-learning algoritme, zoals Bayesiaanse inferentie-of lineaire regressie, dat het niet nodig het systeem te worstelen met een complexe combinatie van hiërarchische functies in de gegevens, dan zijn deze veel minder computational veeleisende opties worden de betere keuze.

Diep leren kan ook niet de beste keuze voor het maken van een voorspelling op basis van gegevens. Bijvoorbeeld, als de dataset te klein is dan soms eenvoudige lineaire machine-leren-modellen kan leiden tot meer nauwkeurige resultaten — hoewel sommige machine-learning specialisten beweren een goed opgeleide diep-learning neurale netwerk kan nog goed presteren met kleine hoeveelheden gegevens.

AI en gezondheid: met Behulp van machine learning te begrijpen van het menselijke immuunsysteemMapR platform-update brengt grote AI en Analyses innovatie…door het bestandssysteemvan Microsoft koopt machine-learning opstarten BonsaiNvidia onderzoekers gebruik maken van diepe leren maken van een super-slow-motion video ‘ s

Wat zijn de nadelen van diep leren?

Een van de grote nadelen is de hoeveelheid gegevens die ze nodig hebben om te trainen, met Facebook onlangs aankondigde het had een miljard beelden te bereiken ongekende prestaties door een beeld-herkenning. Wanneer de datasets zijn deze grote, training systemen ook toegang nodig heeft tot grote hoeveelheden gedistribueerde rekenkracht. Dit is een ander probleem van diep leren, de kosten van de opleiding. Vanwege de omvang van de datasets en het aantal van de opleiding cycli die moeten worden uitgevoerd, training vaak vereist toegang tot high-powered en dure computer hardware, meestal high-end Gpu ‘ s of GPU-arrays. Of u nu uw eigen systeem of het huren van hardware van een cloud-platform, noch optie is waarschijnlijk goedkoper.

Diep-neurale netwerken zijn ook moeilijk zijn om te trainen, te wijten aan wat wordt genoemd het verdwijnen van de gradiënt van het probleem, die kan verergeren hoe meer lagen er zijn, in een neuraal netwerk. Naarmate er meer lagen worden toegevoegd de verdwijnende verloop probleem kan resulteren in het nemen van een unfeasibly lange tijd om te trainen van een neuraal netwerk om een goed niveau van nauwkeurigheid, zoals de verbetering tussen elke training cyclus is dus minuut. Het probleem is niet verdrukken elk multi-layer neurale netwerk, veeleer diegenen die gebruik maken van kleurovergangen gebaseerde manieren van leren. Dat zei dit probleem kan aangepakt worden op verschillende manieren, door te kiezen voor een passende functie activering of door het trainen van een systeem met behulp van een heavy-duty GPU.

Diep leren helpt Google een oogje houden op de kans op een hartaanval bijDe toekomst van de toekomst: Vonk, big data, inzichten, streaming en diep leren in de cloud

Waarom zijn diepe neurale netwerken moeilijk te trainen zijn?

Zoals vermeld diep neurale netwerken zijn moeilijk te trainen zijn door het aantal lagen in het neurale netwerk. Het aantal lagen en de verbindingen tussen de neuronen in het netwerk is zodanig dat het moeilijk kan worden voor het berekenen van de aanpassingen die moeten worden gemaakt bij elke stap in het opleidingstraject — een probleem genoemd het verdwijnen van de gradiënt probleem.

Een ander groot probleem is de enorme hoeveelheden gegevens die nodig zijn om de trein diep leren, neurale netwerken, training corpora vaak het meten van petabytes in grootte.

Wat diep leren technieken bestaan er?

Er zijn verschillende soorten van diepe neurale netwerk, met een structuur die geschikt is voor verschillende soorten van taken. Bijvoorbeeld, Convolutional Neurale Netwerken (CNNs) worden doorgaans gebruikt voor computer vision taken, terwijl de Recurrente Neurale Netwerken (RNNs) worden vaak gebruikt voor het verwerken van taal. Elk heeft zijn eigen specialisaties, in CNNs de eerste lagen zijn gespecialiseerd voor het uitpakken van verschillende kenmerken van het beeld, die vervolgens worden ingevoerd in een meer conventionele neurale netwerk om de afbeelding te worden ingedeeld. Ondertussen RNNs afwijken van een traditionele feed-forward neurale netwerk in dat ze niet alleen feed gegevens van een neurale laag naar de volgende, maar hebben ook ingebouwde feedback-lussen, waar de gegevens van de output van de ene laag wordt doorgegeven terug naar de voorgaande laag — uitlenen van het netwerk een vorm van geheugen. Er is een meer gespecialiseerde vorm van RNN dat geldt ook voor wat wordt genoemd een geheugen cel en die is afgestemd op de verwerking van de gegevens met een vertraging tussen de ingangen.

De meest elementaire vorm van een neuraal netwerk is een multi-layer perceptron netwerk, het type dat hierboven is besproken in de handgeschreven cijfers bijvoorbeeld, waar de gegevens worden naar voren tussen de lagen van neuronen. Elk neuron zal meestal veranderen de waarden die worden gevoed via een activering van de functie, die de veranderingen die waarden in een formulier dat u aan het eind van de training cyclus, zal het netwerk te berekenen hoe ver het is van het maken van een nauwkeurige voorspelling.

Er zijn een groot aantal verschillende soorten diepe neurale netwerken. Niemand netwerk is per definitie beter dan de andere, maar ze zijn beter geschikt om het leren van bepaalde typen taken.

Meer recent, generatieve tegenspraak netwerken (GANS) zijn de uitbreiding van wat mogelijk is met behulp van neurale netwerken. In deze architectuur twee neurale netwerken strijd, de generator netwerk probeert te maken van het overtuigen “nep” gegevens en de discriminator pogingen om het verschil te zien tussen valse en echte data. Met elke cyclus, de generator wordt beter in het produceren van valse gegevens en de discriminator krijgt een scherper oog voor het spotten van deze vervalsingen. Pitting de twee netwerken het tegen elkaar op tijdens de opleiding, beide kunnen bereiken van een betere prestatie. GANs zijn gebruikt voor de uitvoering van enkele bijzondere taken, zoals het draaien van deze dashcam video ‘s van dag naar nacht of van winter naar zomer, zoals in de video hieronder, en zijn toepassingen, variërend van het draaien van lage resolutie foto’ s in hoge resolutie van alternatieven en het genereren van beelden van geschreven tekst. GANs zijn van hun eigen beperkingen, maar die kunnen maken dat ze een uitdaging om te werken met, hoewel deze worden aangepakt door de ontwikkeling van meer robuuste GAN varianten.

Waar kunt u meer informatie over diep leren?

Er is geen tekort aan cursussen die er zijn dat de dekking van diep leren.

Als je geïnteresseerd bent in die samengesteld door leidende figuren in het veld, u zou kunnen controleren van deze Coursera aanbod, één van Geoff Hinton op neurale netwerken en andere co-gemaakt door Andrew Ng dat geeft een algemeen overzicht van het onderwerp, terwijl dit Udacity cursus werd mede gemaakt door Sebastian Thrun, van Google zelf-rijdende auto roem, en biedt toegang tot de experts van OpenAI, Google Hersenen, en DeepMind.

Er is ook een schat van gratis lessen online beschikbaar, veel van de top onderwijsinstellingen, zoals deze klassen op de verwerking van natuurlijke taal en convolutional neurale netwerken van de Stanford University.

Als je net na een meer gedetailleerd overzicht van diep leren, dan Neurale Netwerken en Diep Leren is een gratis online boek. Terwijl als je vertrouwd bent met de middelbare school wiskunde en de programmeertaal Python, dan is Google ‘ s Samenwerking project biedt een interactieve kennismaking met machine learning.

Google wedstrijden tegen de AWS, Microsoft te brengen AI ontwikkelaarsWinkel scannen robots krijgen AI, object herkenning boost met de recente overnamevan Robotica in het bedrijfsleven: Alles wat de mens moet wetenGPU computing: het Versnellen van de diepe leercurve

Hoeveel kost het om te investeren in de diepe leren?

Het hangt af van je aanpak, maar het zal meestal kost je honderden dollars naar boven, afhankelijk van de complexiteit van de machine-learning taak en de door u gekozen methode.

Welke hardware heb je nodig om het apparaat te leren?

De eerste keuze is of u wilt huren hardware in de cloud of het bouwen van uw eigen diep-learning rig. Het beantwoorden van deze vraag komt het neer op hoe lang u verwacht dat u zal worden aan het trainen van uw diepe-leren-model. Je betaalt meer als je de stok met cloud-diensten, dus als u verwacht dat de opleiding duurt meer dan een paar maanden van intensief gebruik dan het kopen/bouwen van uw eigen machine voor opleiding zal waarschijnlijk verstandig.

Als de wolk klinkt geschikt is, dan kunt u het huren van computing-infrastructuur op maat van diep leren van de grote cloud-providers, waaronder AWS, Google Cloud en Microsoft Azure. Elk appartement beschikt bovendien over geautomatiseerde systemen, het stroomlijnen van het proces van de opleiding van een machine-leren model met het aanbod zoals drag-and-drop tools, waaronder die van Microsoft Machine Learning Studio, Google ‘ s Cloud AutoML en AWS SageMaker.

ZIE: het implementeren van AI en machine learning (ZDNet speciale rapport) | Download het rapport als PDF (TechRepublic)

Dat gezegd hebbende, het bouwen van uw eigen machine zal niet goedkoop zijn. Je zult moeten investeren in een fatsoenlijke GPU te trainen, iets meer dan een zeer eenvoudige neurale netwerken, zoals Gpu ‘ s kunnen uitvoeren van een zeer groot aantal van de matrix vermenigvuldigen in parallel, helpen versnellen, zijn een cruciale stap tijdens de training.

Als u niet van plan bent op het trainen van een neuraal netwerk met een groot aantal lagen, kunt u kiezen voor de consument rang kaarten, zoals de Nvidia GeForce GTX 1060, die meestal verkoopt voor ongeveer € 270, terwijl het aanbieden van 1,280 CUDA-cores.

Meer zware opleiding, echter, vereist specialistische apparatuur. Een van de meest krachtige Gpu ‘ s voor machine learning is de Nvidia Tesla V100, die packs 640 AI-op maat Tensor kernen en 5,120 algemene HPC CUDA-cores. Deze kosten aanzienlijk meer dan de consument kaarten, met prijzen voor de PCI Express versie vanaf € 7,500.

Gebouw AI-specifieke werkstations en servers kunnen de kosten nog meer, bijvoorbeeld, de diep-leren gericht DGX1 verkoopt voor $149,000.

Evenals een PCIe adapter, de Tesla-V100 is beschikbaar als een SXM module aan te sluiten op Nvidia ‘ s high-speed NVLink bus.

gpustesla-v100-sxm.jpg

Evenals een PCIe adapter, de Tesla-V100 is beschikbaar als een SXM module aan te sluiten op Nvidia ‘ s high-speed NVLink bus.

Afbeelding: Nvidia

Hoe lang duurt het voordat de trein een diep leren model?

De tijd genomen om de trein een diep-leren-model varieert enorm, van uren tot weken of langer, en is afhankelijk van factoren zoals de beschikbare hardware, optimalisatie, het aantal lagen in het neurale netwerk, de architectuur van het netwerk, wordt de grootte van de dataset en meer.

Die diep-learning software frameworks beschikbaar zijn?

Er zijn een breed scala van diep-learning software frameworks, die gebruikers de mogelijkheid bieden om te ontwerpen, te trainen en te valideren diep neurale netwerken, met behulp van een scala van verschillende programmeertalen.

Een populaire keuze is Google ‘s TensorFlow software bibliotheek, die gebruikers toestaat om te schrijven in Python, Java, C++, en Snel, en kan worden gebruikt voor een breed scala van diep leren de taken zoals beeld-en spraakherkenning, en die wordt uitgevoerd op een breed scala van Cpu ‘s, Gpu’ s en andere processoren. Het is goed gedocumenteerd, en heeft vele tutorials en geïmplementeerd modellen die beschikbaar zijn.

Een andere populaire keuze, vooral voor beginners, is PyTorch, een kader dat de imperatief programmeren model bekend voor ontwikkelaars en stelt ontwikkelaars in staat gebruik te maken van standaard Python verklaringen. Het werkt met een diepe neurale netwerken, variërend van CNNs te RNNs en efficiënt werkt op Gpu ‘ s.

Onder de brede waaier van andere opties van Microsoft Cognitieve Toolkit, MATLAB, MXNet, Chainer, en Keras.

Zal neurale netwerken en diep leren leiden tot algemene kunstmatige intelligentie?

Op dit moment diep leren is gebruikt voor de bouw van smalle AI kunstmatige intelligentie waarmee een bepaalde taak worden dat de ondertiteling foto ‘ s of transcriptie van spraak.

Er is geen systeem zo ver, dat kan worden beschouwd als een algemene kunstmatige intelligentie, in staat om het aanpakken van de zelfde breedte van de taken en met dezelfde brede begrip als mens. Wanneer dergelijke systemen ontwikkeld zal worden is onbekend, met voorspellingen, variërend van tientallen jaren omhoog.

Meer over de deep-leren-technologieën

Nvidia onderzoekers gebruik maken van diepe leren maken van een super-slow-motion video ‘ s

De onderzoekers gebruikten Nvidia Tesla V100-Gpu ‘s en cuDNN-versnelde PyTorch diep leren kader voor de opleiding van hun systeem op meer dan 11.000 video’ s geschoten op 240 frames-per-seconde.

Wie bepaalt dat diep leren en AI uitkomsten zijn ‘recht’?

Kathryn Hume, vice-president van product en strategie bij te integreren.ai, de adressen van de uitdagingen van grote ondernemingen wanneer het proberen om het toepassen van kunstmatige intelligentie en machine learning.

Google ‘ s deep learning systeem beoogt te temmen electronic health records

Google is het gebruik van een deep learning systeem om te navigeren elektronische patiëntendossiers zonder de gegevens steekspel.

LG te openen naast AI research lab in Canada (CNET)

Het bedrijf zal tevens de aftrap van een nieuw onderzoek in samenwerking met de Universiteit van Toronto.

Linux Foundation duwt open-source AI vooruit met de Diep Leren Foundation

De Linux Foundation is gestart met de LF Diep Leren Foundation, een overkoepelende organisatie van open-source innovatie in de kunstmatige intelligentie, machine learning, en diep leren.

NVIDIA en ARM willen brengen diep leren om uw Ivd-projecten (TechRepublic)

Aangekondigd in de GTC 2018 zal het partnerschap zie de NVIDIA Diep Leren Accelerator architectuur geïntegreerd in het ” Arm ‘ s Project Trillium.

Verwante Onderwerpen:

Innovatie

Digitale Transformatie

CXO

Het Internet van Dingen

Enterprise Software

Smart Cities

0