Nul
Hvilke problemer er dybt lære at løse?
Som nævnt, dybt neurale netværk excel til at lave forudsigelser baseret på hovedsageligt ustrukturerede data. Det betyder, at de levere best in class performance i områder, såsom tale og billede anerkendelse, hvor de arbejder med rodet data såsom optaget tale og billeder.
Skal du bruge altid dybt læring i stedet for overfladisk machine learning?
Nej, for dyb læring kan være meget dyrt fra et beregningsmæssigt synspunkt.
For ikke-trivielle opgaver, uddannelse, en dyb-neurale netværk vil ofte kræve behandling af store mængder data ved hjælp af klynger af high-end Gpu ‘ er, for mange, mange timer.
I betragtning af top-of-the-range Gpu ‘ er kan koste tusindvis af dollars til at købe, eller op til $5 per time til leje i sky, det er uklogt at springe direkte til dyb læring.
Hvis problemet kan løses ved hjælp af en enklere machine-learning-algoritme som Bayesiansk inferens, eller lineær regression, ikke et der kræver systemet at tumle med en kompleks kombination af hierarkisk funktioner i data, så disse langt mindre beregningsmæssigt krævende valg vil være bedre valg.
Dyb læring kan heller ikke være det bedste valg til at lave en forudsigelse baseret på data. For eksempel, hvis datasættet er lille, så nogle gange er simpel lineær machine-learning modeller, der kan give mere præcise resultater-selv om nogle machine-learning specialister hævder en ordentligt uddannet dybt-læring neurale netværk, der stadig kan udføre godt med små mængder af data.
AI og sundhed: ved Hjælp af maskinen at lære at forstå den menneskelige immunsystemMapR platform update bringer større AI-og Analytics-innovation…via file systemMicrosoft køber machine-learning start BonsaiNvidia forskere bruger dyb læring til at skabe super-slowmotion videoer
Hvad er ulemperne ved dyb læring?
En af de store ulemper er den mængde data, de skal bruge til at træne med Facebook for nylig annoncerede, at det havde brugt en milliard billeder til at opnå rekord resultater af et billede-anerkendelse. Når de datasæt, er dette store, uddannelse systemer kræver også adgang til enorme mængder af distribuerede computing power. Dette er et andet spørgsmål, dyb læring, udgifter til uddannelse. På grund af størrelsen af datasæt, og antallet af uddannelse cykler, der er nødt til at køre, uddannelse kræver ofte adgang til høj-drevne og dyre computer hardware, typisk high-end Gpu ‘ er eller GPU arrays. Uanset om du bygger dit eget system eller leje hardware fra en cloud-platform, der hverken mulighed er tilbøjelige til at være billige.
Dybt neurale netværk er også svært at træne, på grund af det, der kaldes the vanishing gradient problem, der kan forværres jo flere lag der er i et neuralt netværk. Som flere lag er tilføjet den forsvindende gradient problem kan resultere i at det tager en unfeasibly lang tid til at træne et neuralt netværk til at en høj grad af nøjagtighed, da forbedringen mellem hver træning cyklus er så minut. Problemet behøver ikke hjemsøge hver multi-lag neurale netværk, snarere dem, der bruger gradient-baserede metoder til at lære. At sagde, at dette problem kan løses på forskellige måder, ved at vælge en passende aktivering funktion eller ved at træne et system, der bruger en heavy-duty GPU.
Dyb læring hjælper Google med at holde øje med hjerteanfald risiko for,fremtiden for fremtiden: Spark, big data indsigt, streaming og dybe læring i skyen
Hvorfor er dybt neurale netværk hårdt at træne?
Som nævnt dybt neurale netværk, der er svære at træne på grund af antallet af lag i det neurale netværk. Antallet af lag og forbindelser mellem neuroner i netværket er sådan, at det kan blive vanskeligt at beregne de justeringer, der skal foretages på hvert trin i den uddannelse, proces-et problem, der henvises til som den forsvindende gradient problem.
Et andet stort problem er de enorme mængder af data, der er nødvendige for at træne dyb læring neurale netværk, med uddannelse corpuses, ofte måle petabytes i størrelsen.
Hvad dybt at lære teknikker, der findes?
Der er forskellige typer af dyb neurale netværk, med strukturer, der er egnede til forskellige typer af opgaver. For eksempel, Convolutional Neurale Netværk (CNNs) anvendes typisk for computer vision opgaver, mens Tilbagevendende Neurale Netværk (RNNs) er almindeligt anvendt til behandling af sprog. Hver har sine egne specialer, i CNNs det første lag er specialiseret til udvinding af forskellige funktioner fra det billede, som derefter føres ind i en mere konventionel neurale netværk til at give det billede, der skal klassificeres. I mellemtiden, RNNs adskiller sig fra en traditionel feed-forward neurale netværk i, at de ikke bare fodre data fra en neurale lag til det næste, men har også indbyggede feedback-loops, hvor data output fra den ene lag er gået tilbage til det foregående lag det — udlån netværket en form for hukommelse. Der er en mere specialiseret form for RNN, som omfatter hvad der kaldes en memory celle, og der er skræddersyet til at behandle data med en vis forsinkelse mellem indgange.
Den mest basale form af neurale netværk er en multi-layer perceptron netværk, den anvendte type diskuteret ovenfor i håndskrevne tal eksempel, hvor data er ført frem mellem lag af neuroner. Hver neuron vil typisk omdanne de værdier, de fodres ved hjælp af en aktivering af funktionen, som ændrer disse værdier i en form, der, ved slutningen af undervisningsforløbet, vil gøre det muligt for netværket at beregne, hvor langt væk det er fra at foretage en præcis forudsigelse.
Der er et stort antal af forskellige typer af dyb neurale netværk. Ingen netværk er i sagens natur bedre end andre, de bare er bedre egnet til at lære bestemte typer af opgaver.
Mere for nylig, generativ kontradiktorisk netværk (GANS) er at udvide, hvad der er muligt ved hjælp af neurale netværk. I denne arkitektur to neurale netværk gøre kampen, generator netværk forsøger at skabe overbevisende “falske” data og diskriminatoren forsøg på at skelne mellem falske og reelle data. Med hver uddannelse cyklus, generatoren bliver bedre til at producere falske data og diskriminatoren får et skarpere blik for at spotte disse forfalskninger. Ved grubetæring af de to netværk mod hinanden under træning, både kan opnå en bedre ydeevne. GANs har været anvendt til at udføre nogle bemærkelsesværdige opgaver, såsom at dreje disse dashcam videoer fra dag til nat og fra vinter til sommer, som vist i videoen nedenfor, og få ansøgninger, der spænder fra at dreje i lav opløsning fotos i høj opløsning alternativer og generere billeder fra skrevet tekst. GANs har deres egne begrænsninger, men der kan gøre dem udfordrende at arbejde med, selv om disse er ved at blive løst ved udvikling af mere robust GAN varianter.
Hvor kan du lære mere om, dyb læring?
Der er ingen mangel på kurser derude, der dækker dyb læring.
Hvis du er interesseret i at dem, der er sat sammen af ledende skikkelser i det felt, du kunne tjekke ud disse Coursera tilbud, en af Geoff Hinton på neurale netværk og en anden co-skabt af Andrew Ng, der giver et generelt overblik over emnet, mens dette Udacity naturligvis var co-skabt af Sebastian Thrun, af Googles selvkørende bil, berømmelse, og giver adgang til eksperter fra OpenAI, Google Hjernen, og DeepMind.
Der er også et væld af gratis lektioner til rådighed online, mange fra de bedste uddannelsesinstitutioner, som disse klasser på naturligt sprog forarbejdning og convolutional neurale netværk fra Stanford University.
Hvis du bare efter en mere detaljeret oversigt over dybe læring, så Neurale Netværk og Dybe Læring er et fremragende, gratis online bog. Mens hvis du er komfortabel med high-school matematik og programmeringssproget Python, så er Googles Colab projekt tilbyder en interaktiv introduktion til machine learning.
Google løb mod AWS, Microsoft for at bringe AI til udviklereButikken scanning robotter vil få AI, objekt anerkendelse boost med de seneste erhvervelseRobotteknologi i erhvervslivet: Alt, hvad mennesker har brug for at vide,GPU computing: Fremskynde den dybe læring kurven
Hvor meget koster det at investere i dyb læring?
Det afhænger af din tilgang, men det vil typisk koste dig hundredvis af dollars og opefter, afhængigt af kompleksiteten af den machine-learning opgave, og den valgte metode.
Hvilket udstyr har du brug for machine learning?
Det første valg er, om du ønsker at leje hardware i skyen, eller opbygge dine egne dybe-læring rig. Besvarelsen af dette spørgsmål kommer ned til, hvor længe du forventer, du vil træne din dybe-learning model. Du vil betale mere end en gang, hvis du holder dig med cloud-tjenester, så hvis du regner med, at uddannelsen vil tage mere end et par måneder med intensiv brug derefter købe/bygge din egen maskine for uddannelse vil sandsynligvis være forsigtig.
Hvis skyen, lyder egnet, så kan du leje computing-infrastruktur, der er skræddersyet til dyb læring fra de store cloud-udbydere, herunder AWS, Google, og Microsoft Azure. Der er også automatiske systemer til at strømline processen med at uddanne en maskine-learning model med tilbud såsom træk-og-slip-værktøjer, herunder Microsoft ‘ s Machine Learning Studie, er Googles Cloud AutoML og AWS SageMaker.
SE: Hvordan man gennemfører AI og machine learning (ZDNet særlige rapport) | Download rapporten som PDF (TechRepublic)
At sagde, at bygge din egen maskine vil ikke være billige. Du bliver nødt til at investere i en anstændig GPU til at træne noget mere end meget simple neurale netværk, som Gpu ‘ er kan udføre et meget stort antal af matrix multiplikationer i parallel, hjælpe fremskynde et afgørende skridt i træningen.
Hvis du ikke har planer om træning af et neuralt netværk med et stort antal lag, du kan vælge for forbruger-grade-kort, såsom Nvidia GeForce GTX 1060, der typisk sælger for omkring £270, mens du stadig at tilbyde 1,280 CUDA kerner.
Mere heavy-duty uddannelse, vil dog kræve specialudstyr. En af de mest magtfulde Gpu ‘ er for machine learning er Nvidia Tesla V100, der pakker 640 AI-skræddersyet Tensor kerner og 5,120 generelt HPC CUDA kerner. Disse omkostninger betydeligt mere end forbruger-kort, med priser til PCI Express-version, der starter ved £7.500 for.
Bygning AI-specifikke arbejdsstationer og servere kan koste endnu mere, for eksempel, den dybe læring fokuseret DGX1 sælger for $149,000.
Samt en PCIe-adapter, Tesla V100 er tilgængelig som en SXM-modulet til at sætte ind i Nvidia ‘ s high-speed NVLink bus.
Samt en PCIe-adapter, Tesla V100 er tilgængelig som en SXM-modulet til at sætte ind i Nvidia ‘ s high-speed NVLink bus.
Billede: Nvidia
Hvor lang tid tager det at uddanne en dyb læring model?
Den tid, det tager at uddanne en dyb-learning model varierer meget, fra få timer til uger eller mere, og er afhængig af faktorer såsom de tilgængelige hardware, optimering, antallet af lag i det neurale netværk, netværk arkitektur, størrelsen af datasæt og meget mere.
Som dybt-learning software rammer, der er til rådighed?
Der er en bred vifte af dyb-learning software rammer, som giver brugerne mulighed for at designe, tog og validere dybt neurale netværk, ved hjælp af en vifte af forskellige programmeringssprog.
Et populært valg er Google ‘s TensorFlow software bibliotek, som tillader brugere at skrive i Python, Java, C++, og Hurtig, og der kan anvendes til en bred vifte af dybe læring opgaver som billede-og talegenkendelse, og som udfører en bred vifte af Cpu ‘er, Gpu’ er, og andre processorer. Det er veldokumenteret, og har mange tutorials og gennemført modeller, der er til rådighed.
Et andet populært valg, især for begyndere, er PyTorch, en ramme, som tilbyder de afgørende programmering model, der kender til udviklere og giver udviklere mulighed for at bruge standard Python-sætninger. Det virker med dybt neurale netværk, der spænder fra CNNs at RNNs og kører effektivt på Gpu ‘ er.
Blandt den brede vifte af andre muligheder er Microsoft ‘ s Kognitive Værktøjskasse, MATLAB, MXNet, Chainer, og Keras.
Vil neurale netværk og dybe læring føre til generelt kunstig intelligens?
På nuværende tidspunkt er dybt læring er brugt til at bygge smalle AI, kunstig intelligens, som udfører en bestemt opgave, være, at captioning fotos eller overførsel af tale.
Der er ingen system, så langt, at der kan være tænkt som en generel kunstig intelligens, i stand til at tackle den samme bredde af opgaver, og med samme brede forståelse, som et menneske. Når sådanne systemer vil blive udviklet, er ukendt, med forudsigelser, der spænder fra årtier opad.
Mere om deep-learning-teknologier
Nvidia forskere bruger dyb læring til at skabe super-slowmotion videoer
Forskerne brugte Nvidia Tesla V100-Gpu ‘ er og cuDNN-accelereret PyTorch dyb læring rammer til at uddanne deres system på mere end 11.000 videoer skud på 240 frames i sekundet.
Hvem beslutter, at dyb læring og AI resultater er “rigtigt”?
Kathryn Hume, vice president af produkt og strategi ved at integrere.ai, behandler de udfordringer, som de store virksomheder når du forsøger at anvende kunstig intelligens og maskinindlæring.
Google ‘ s deep learning system har til formål at tæmme elektroniske patientjournaler
Google er ved hjælp af en dyb learning system til at navigere elektroniske patientjournaler uden data tovtrækkeri.
LG for at åbne næste AI research lab i Canada (CNET)
Virksomheden vil også kick off en ny forskning i samarbejde med University of Toronto.
Linux Foundation skubber open-source AI videre med den Dybe Læring Fundament
Linux Foundation har lanceret LF Dyb Læring Foundation, en paraply-organisation for open-source innovation i kunstig intelligens, machine learning, og dyb læring.
NVIDIA og ARM ønsker at bringe dyb læring til din IoT-projekter (TechRepublic)
Annonceret på GTC 2018, partnerskab vil se NVIDIA Dyb Læring Accelerator arkitektur integreret i Arm ‘ s Projekt Trillium.
Relaterede Emner:
zdnet_topic.relaterede.executive-vejledninger
Digital Transformation
CXO
Tingenes Internet
Innovation
Virksomhedens Software
0