Uitvoeren:AI neemt uw AI en voert hij het uit op de super-snelle software stack van de toekomst

0
131

Het beheren van AI en ML in de Onderneming
De AI en ML-implementaties zijn in volle gang, maar voor CXOs het grootste probleem zal worden in het beheren van deze initiatieven, uitzoeken waar de data science team past en uitzoeken wat algoritmen te kopen vs. bouwen.

Geller op gewezen dat in het nieuwe tijdperk van de AI, diversiteit komt niet alleen in de verschillende beschikbare hardware chips, maar ook in de workloads zelf. AI workloads Ondersteuning-Vectoren, besluit de boom-algoritmen, volledig aangesloten neurale netwerken, Convolutional Neurale Netwerken (CNNs), lange-korte-termijn-geheugen (LSTM) en anderen:

“Elk algoritme past een andere toepassing (besluit bomen voor aanbeveling motoren, CNNs voor beeldherkenning, LSTMs voor NLP, enzovoort). Deze workloads moeten worden uitgevoerd met verschillende optimalisaties – anders dan in termen van distributie strategie, op verschillende hardware chips, etc.

Een management platform is vereist om de kloof te overbruggen tussen de verschillende AI werkbelasting en de verschillende hardware-chips en het uitvoeren van een echte efficiënte en snelle AI computing platform. Uitvoeren:AI-systeem loopt een organisatie het AI workloads gelijktijdig, en daarom kunnen toepassen van macro-optimalisaties, zoals de toewijzing van de middelen over de verschillende workloads”.

runai-image.jpg

Uitvoeren:AI gebruikt grafiek analyse in combinatie met een unieke hardware-modelmatige benadering te hanteren diep leren optimalisatie en het beheer van een grote set van workloads

×

runai-image.jpg

Geller uitgelegd dat voor het Uitvoeren van:AI gebruikt grafiek analyse in combinatie met een unieke hardware-modelaanpak voor het afhandelen van dergelijke optimalisaties en beheren van een grote set van workloads. Dit, zei hij, laat het platform om te begrijpen van de computationele complexiteit van de werkbelasting, het afstemmen van de beste hardware configuratie voor elke taak, rekening houdend met de zakelijke doelstellingen en vastgelegde kosten en snelheid van het beleid.

Geller toegevoegd dat voor het Uitvoeren van:AI ook automatisch verdeelt berekeningen over meerdere berekenen van middelen met behulp van hybride gegevens/model parallellisme, de behandeling van vele afzonderlijke compute resources alsof ze een enkele computer, met tal van compute nodes die parallel kunnen werken. Deze aanpak optimaliseert het berekenen van de efficiëntie en u toelaat om het verhogen van de grootte van het trainen van neurale netwerk.

Uitvoeren van machine learning model training workloads, echter, is sterk afhankelijk van het voeden hen met de gegevens die ze nodig hebben. Daarnaast, de meeste mensen ontwikkelen hun modellen met behulp van TensorFlow, Keras, PyTorch, of één van de vele machine learning kaders rond.

Wat heeft dit alles samen wat doen machine learning ingenieurs moeten doen om hun model op Uitvoeren:AI, en voeden de gegevens die het nodig heeft? Nog belangrijker is, is het ook het werk in de cloud – openbare en privé? Veel AI workloads draaien in de cloud, de volgende gegevens van de zwaartekracht.

Integratie met machine learning kaders en opslag van gegevens, zowel on premise als in de cloud

Geller zegt dat een van de kernbegrippen van het Uitvoeren van de AI is dat de gebruiker niet hoeft te veranderen workflows in om gebruik te maken van het systeem:

“Run:AI ondersteunt zowel private cloud en public clouds, zodanig dat onze oplossing werkt in hybride/multi cloud-omgevingen. Het bedrijf werkt nauw samen met VMware-technologie (partner) en met AWS om te maximaliseren van het gebruik van hulpbronnen en het minimaliseren van de kosten.

Uitvoeren:AI kan werken met Docker containers pre-gebouwd door de gebruiker, containers pre-gebouwd door het Uitvoeren van:AI team, of op het blanke metaal. De meeste van Run:AI optimalisaties kunnen worden toegepast op elke container werkbelasting dat draait met een kader. De low-level systeem dat parallelizes een enkel werk is om te draaien op meerdere bronnen kan worden toegepast op de grafiek-frameworks, op dit moment ondersteunen TensorFlow en Keras in productie en snel PyTorch.

Lees meer

Wat is diep leren? Alles wat je nodig hebt om knowWhy AI en ML niet cybersecurity oplossingen–nog TechRepublicFacebook probeert te geven AI ‘common sense’, zegt chief scientist CNET

Gegevens worden gestreamd naar de compute-exemplaar via container-entry point scripts, of als onderdeel van de opleiding code die op bare-metal hardware. Data kan worden opgeslagen in een locatie met inbegrip van cloud-opslag in publieke clouds en netwerk bestandssystemen in private clouds”.

Nogmaals, dit maakte dat we ons afvroegen. Als start:AI beweert te werk dicht bij de metalen, het leek ons als een ander model, conceptueel, van de wolk, waar het idee is om te abstraheren van de hardware en het gebruik van een set van knooppunten verspreid voor compute en storage. Plus, een van de problemen met het Koppelvenster / Kubernetes op dit moment is dat (permanente en veerkrachtig) data-opslag is ingewikkeld.

In de meeste gevallen, Geller zei, gegevens worden opgeslagen in een cloud-opslag als AWS S3 en pipeline voor het berekenen bijvoorbeeld:

“De data pipeline bevat doorgaans een fase van het streamen van de gegevens uit de cloud-opslag bij het berekenen van aanleg en een preprocessing fase van de voorbereiding van de gegevens die moeten worden ingevoerd om de neurale netto-trainer. Vermindering van de prestaties kan optreden in een van deze fasen.

De Run:AI systeem van rekeningen voor de gegevens van de zwaartekracht en optimaliseert de data streaming prestaties door ervoor te zorgen dat het berekenen instantie zo dicht mogelijk bij de opslag van gegevens. De low-level functies van de Run:AI-systeem verder analyseren van de prestaties van de data pipeline, waarschuwen gebruikers op knelpunten, zowel in de data streaming fase of in de preprocessing stap, terwijl het verstrekken van aanbevelingen voor verbetering”.

Geller toegevoegd dat er ook een optie voor geavanceerde gebruikers te tweaken van de resultaten van de Run:AI-laag, handmatig bepalen van de omvang van de middelen en de verdeling techniek en de werklast zou dienovereenkomstig worden uitgevoerd.

Niet:ik heb de benen?

Uitvoeren:AI ‘ s core value proposition lijkt te handelen als de management laag boven AI chips. Uitvoeren:AI zinvol als een manier van het beheren van werklasten efficiënt over de diverse infrastructuur. Op een manier, Voer je uit:AI kan helpen bij cloud providers en datacenter operators hun weddenschappen af te dekken: in plaats van dat al hun eieren in één AI-chip verkoper mand, hebben ze een collectie van verschillende chips, en Uitvoeren:AI als de management laag om direct workloads waar ze het meest geschikt voor.

Veelbelovend als dit ook mag klinken, maar het is misschien niet ieders kopje thee. Als uw infrastructuur is homogeen, bestaande uit een AI-chip, het is de vraag of Uitvoeren:AI kon leveren superieure prestaties dan de chip van de eigen stapel. We vroegen of er zijn geen benchmarks kunnen Uitvoeren:AI prestaties sneller dan Nvidia, GraphCore, of Habana, bijvoorbeeld? Het lijkt op dit moment zijn er geen benchmarks die kan worden gedeeld.

omri-geller-and-dr-ronen-dar.jpg

Uitvoeren:AI oprichters, Omri Geller en Dr. Ronen Dar. Raun, de AI is in private beta met betalende klanten en het werken met AWS en VMware. De algemene beschikbaarheid wordt verwacht in Q4 2019

×

omri-geller-and-dr-ronen-dar.jpg

Geller, die mede-oprichter Uitvoeren:AI met Dr. Ronen Dar en Prof. Meir Feder in 2018, zegt dat er momenteel een aantal betalende klanten uit de retail -, medische en financiële verticalen. Deze klanten Uitvoeren:AI om de snelheid van hun opleiding en het vereenvoudigen van hun infrastructuur.

Hij ging op toevoegen die klanten gebruiken het systeem ook als een enabler om de trein grote modellen die ze niet konden trainen voor, omdat het model niet passen in een single-GPU geheugen: “Onze parallellisatie technieken kunnen omzeilen deze grenzen. Klanten zijn in staat om hun model van de nauwkeurigheid bij het versnellen van hun opleiding processen en het trainen van grotere modellen”.

Uitvoeren:AI ‘ s business model is gebaseerd op abonnement en de parameters zijn een combinatie van het aantal gebruikers en het aantal experimenten. De kosten zijn afhankelijk van de grootte en het volume van de vennootschap, Geller zei. Op dit moment:de AI is in private beta, met de algemene beschikbaarheid verwacht in 6 maanden.

Kunstmatige Intelligentie

AI en big data versus ethiek: Hoe zorg je ervoor dat je de kunstmatige intelligentie project is op weg de juiste manier

De klantenservice is klaar voor een AI-revolutie

Kunstmatige intelligentie en de toekomst van de smartphone-fotografie

IBM AI demonstratie genoeg voor een grote killer app?

IBM roert controverse door het delen van foto ‘ s voor AI gezichtsherkenning (CNET)

Bedrijven krijgen niet hoe AI cybersecurity tools werken (TechRepublic)

Verwante Onderwerpen:

Datacenters

Digitale Transformatie

CXO

Het Internet van Dingen

Innovatie

Enterprise Software