Kör:AI tar din AI och kör det på super-snabb programvara stack i framtiden

0
176

Hantera AI och ML i Företaget
AI och ML installationer är på god väg, men för CXOs det största problemet kommer att vara att hantera dessa initiativ, räkna ut där data science team passar i och räkna ut vad algoritmer för att köpa vs. bygga.

Geller har påpekat att det i den nya eran av AI, mångfald gäller inte bara i de olika tillgängliga hårdvara marker men också i arbetsbelastning sig själva. AI arbetsbelastning omfattar Stöd-Vektorer, beslut träd algoritmer, fullt ansluten neurala nätverk, Convolutional Neurala Nätverk (CNNs), lång-kort-sikt-minne (LSTM) och andra:

“Varje algoritm passar en annan tillämpning (beslut träd för rekommendation motorer, CNNs för bildigenkänning, LSTMs för NLP, och så vidare). Dessa arbetsbelastning behöver för att köra med olika optimeringar – olika i termer av distributionsstrategi, på olika hårdvara chips, etc.

En plattform som krävs för att överbrygga klyftan mellan olika AI arbetsbelastning och olika hårdvara chips och köra ett riktigt effektivt och snabbt AI computing-plattform. Kör:AI-system som körs alla en organisations AI arbetsbelastning samtidigt, och kan därför tillämpa makro-optimeringar som att fördela resurser mellan de olika arbetsbelastning”.

runai-image.jpg

Kör:AI använder diagram analys i kombination med en unik hårdvara modellering för att hantera djupa lärande optimeringar och hantera en stor uppsättning av arbetsbelastningar

×

runai-image.jpg

Geller förklarade att Köra:AI använder diagram analys i kombination med en unik hårdvara modellering för att hantera sådana optimeringar och hantera en stor uppsättning av arbetsbelastning. Detta, sade han, tillåter plattform för att förstå beräkningskomplexitet av arbetsbelastning, matchande de bästa maskinvarukonfigurationen till varje uppgift och samtidigt ta hänsyn till verksamhetens mål och bestämda kostnader och hastighet politik.

Geller tillade att Köra:AI också distribuerar automatiskt beräkningar över flera beräkna resurser med hjälp av hybrid-data/modell parallellitet, behandling av många separata beräkna resurser som om de är en enda dator med många beräkna noder som arbetar parallellt. Denna inställning optimerar beräkna effektiviteten och gör att du kan öka storleken på läraktig neurala nätverk.

Kör maskinen learning model utbildning arbetsbelastning, men är starkt beroende av att utfodra dem med den information de behöver. Dessutom, folk brukar utveckla sina modeller med hjälp av TensorFlow, Keras, PyTorch, eller en av de många maskininlärning ramar runt.

Så hur kommer allt detta tillsammans – vad gör maskininlärning ingenjörer har att göra för att köra deras modell på Kör:AI, och mata den med de uppgifter som den behöver? Viktigast av allt, fungerar det även i molnet – offentliga och privata? Många AI arbetsbelastning köra i molnet, följande data allvar.

Integrera med maskininlärning ramar och lagring av data, på plats och i molnet

Geller säger att ett av de centrala begreppen i Kör:AI är att användaren inte behöver ändra arbetsflöden för att kunna använda systemet:

“Kör:AI stöder både privata moln och publika moln så att vår lösning fungerar i hybrid/flera molnbaserade miljöer. Företaget arbetar i nära samarbete med VMware (technology partner) och med AWS i syfte att maximera resursutnyttjandet och minimera kostnaderna.

Kör:AI kan arbeta med Docker behållare pre-byggd av användaren, behållare som byggts i förväg genom att Köra:AI-team, eller på ren metall. De flesta Kör:AI optimeringar som kan användas till alla containrar arbetsbelastning kör med någon ram. Låg-nivå-system som parallelizes en enda arbetsbörda för att köras på flera resurser som kan användas för att grafen-baserade ramverk, som för närvarande stöder TensorFlow och Keras i produktion och snart PyTorch.

Läs mer

Vad är djupt lärande? Allt du behöver för att knowWhy AI och ML är inte it-lösningar–ännu TechRepublicFacebook försöker ge AI ‘sunt förnuft’, säger chief scientist CNET

Data streamas till exempel beräkna antingen via container entry point-skript, eller som en del av utbildningen kod som körs på ren metall. Data kan lagras var som helst, inklusive cloud lagring i den offentliga moln och network file system i privata moln”.

Återigen, detta fick oss att undra. Som Kör:AI påstår att arbeta nära metal, det verkade för oss som om en annan modell, begreppsmässigt, från moln där tanken är att man abstraherar från hårdvara, och använda en uppsättning av spridda noder för att beräkna och lagring. Plus en av de frågor som med Docker / Kubernetes vid denna tid är att (permanent & motståndskraftiga) datalagring är komplicerat.

I de flesta fall, Geller säger, data är lagrade i ett moln lagring som AWS S3 och kanalens att beräkna exempel:

“Data rörledning normalt ingår i en fas av strömmande data från moln lagring för att beräkna exempel och en förbehandling fas för att förbereda de uppgifter som matas till det neurala nätet tränare. Prestanda som kan uppstå i någon av dessa faser.

Kör:AI-system står för data allvar och optimerar data streaming prestanda genom att se till att beräkna exempel är, som så nära som möjligt till datalagring. Den låga nivån har i Kör:AI-system som ytterligare analysera resultatet av data rörledning, varna användare om flaskhalsar antingen i data streaming-fas eller i förbehandlingen steg samtidigt som den ger rekommendationer för förbättring”.

Geller tillade att det också ett alternativ för en avancerad användare för att justera resultaten av att Köra:AI lager, manuellt för att bestämma mängden av resurser och fördelning teknik, och den arbetsbörda som skulle utföras på rätt sätt.

Gör som Kör:AI har ben?

Kör:AI: s grundläggande värde proposition verkar vara i egenskap av förvaltningen skikt ovanför AI marker. Kör:AI vettigt som ett sätt att hantera arbetsbelastning effektivt i olika infrastruktur. På ett sätt, Kör:AI kan hjälpa moln leverantörer och operatörer datacenter säkra sina satsningar: i stället för att lägga alla sina ägg i en AI chip säljaren korg, de kan ha en samling av olika marker, och använd Kör:AI som förvaltningen lager för direkt arbetsbelastning där de är mest lämpade för.

Lovande som det kan låta, men det kanske inte allas kopp te. Om din infrastruktur är homogen, bestående av en enda AI chip, det är tveksamt om Kör:AI kunde leverera överlägsen prestanda än chip egna native-stack. Vi frågade om det finns några riktmärken: kunde Köra:AI: s prestanda vara snabbare än Nvidia, GraphCore, eller Habana, till exempel? Det verkar på denna punkt finns det inga riktmärken som kan delas.

omri-geller-and-dr-ronen-dar.jpg

Kör:AI grundarna, Omri Geller och Dr Ronen Dar. Raun:AI är i privat beta med betalande kunder och att arbeta med AWS och VMware. Allmän tillgänglighet förväntas i Q4 2019

×

omri-geller-and-dr-ronen-dar.jpg

Geller, som grundade Kör:AI med Dr Ronen Dar och Prof. Meir Feder 2018, sade att det finns för närvarande flera betalande kunder från detaljhandel, sjukvård och ekonomi vertikaler. Dessa kunder använder Köra:AI för att snabba upp sin utbildning och förenkla deras infrastruktur.

Han gick på för att lägga till kunder som också använder systemet som en möjliggörare för att träna stora modeller som de kunde inte träna innan eftersom modellen inte passar in i en enda GPU-minne: “Vår parallellisering tekniker kan kringgå dessa begränsningar. Kunder kan förbättra sin modell precision när påskynda deras utbildning och utbildning större modeller”.

Kör:AI: s affärsmodell bygger på abonnemang och parametrar är en kombination av antalet användare och antalet experiment. Kostnaden beror på storleken och volymen av företaget, Geller säger. För närvarande Kör:AI är i privat beta, med allmän tillgänglighet väntat i 6 månader.

Artificiell Intelligens

AI och big data vs etik: Hur att se till att din artificiell intelligens projektet är på väg rätt sätt

Kundtjänst är redo för en AI-revolution

Artificiell intelligens och framtiden för smartphone fotografering

IBM: s AI demonstration nog för en quantum killer-app?

IBM väcker kontrovers genom att dela foton för AI ansiktsigenkänning (CNET)

Företagen fattar inte hur AI it-säkerhet verktyg som fungerar (TechRepublic)

Relaterade Ämnen:

Datacenter

Digital Omvandling

CXO

Sakernas Internet

Innovation

Affärssystem