Spell introduserer MLOps for dyp læring

0
104

 Andrew Brust

Av Andrew Brust for Big on Data | 12. august 2021 – 13:00 GMT (14:00 BST) | Tema: Kunstig intelligens

 spell-dlops-marketecture-diagram.png

Stave DLOps arkitektur på høyt nivå

Kreditt: Stave

Produktkategorien for maskinlæring (MLOps) har beveget seg raskt, spesielt det siste året, og flere plattformer har dukket opp for å ta den på. Skyleverandører inkludert AWS og Microsoft, analysespillere, inkludert Databricks og Cloudera, rene MLOps -skuespill som Algorithmia, og til og med åpen kildekode -prosjekter som MLflow, tilbyr integrerte plattformer for å administrere maskinlæringsmodelleksperimentering, distribusjon, overvåking og forklarbarhet. Nå tilbyr Spell, en New York City-basert MLOps-oppstart, en MLOps-plattform som er spesielt rettet mot dyp læring. Som sådan refererer Spell til plattformen, som ble kunngjort i forrige uke, for å lette “DLOps.”

Les også:

< Databricks øker AI -ante med ny AutoML -motor og funksjonslager < sterk>Clouderas MLOps -plattform bringer styring og ledelse til datavitenskapelige rørledninger
Cloudera Machine Learning MLOps -pakken er generelt tilgjengelig ettersom den tar sikte på å administrere modeller, analyser

ZDNet snakket med Spells markedsføringssjef, Tim Negris, så vel som administrerende direktør og medgründer, Serkan Piantino (som tidligere fungerte som direktør for ingeniørfag ved Facebook AI Research, og som åpnet Facebooks kontor i New York City). Duoen forklarte at de fleste av dagens fremtredende MLOps -plattformer henvender seg til konvensjonell maskinlæring (klassifisering, regresjon, gruppering og lignende) og ikke til dyp læring, som bygger modeller ved å legge flere neurale nettverksstrukturer i et ensemble. Det gapet i markedet er motivasjonen bak Spells DLOps -plattform.

Spesielle krav

Hvorfor ser Stave DLOps som en tydelig kategori? Piantini og Negris forklarte at dyp læring spesielt godt gjelder scenarier som involverer naturlig språkbehandling (NLP), datasyn og talegjenkjenning. Modeller med dyp læring er vanligvis mer komplekse enn sine konvensjonelle ML -modellmodeller og vil trolig ikke bli trent på en dataviters bærbare datamaskin. I stedet drar modellopplæring av dyp læring nytte av-og kraftigere-skybasert maskinvare, inkludert CPU-basert datamaskin, men spesielt GPU-basert datamaskin. Sistnevnte kan være ganske dyrt når det gjelder eksperimentering og opplæring av dype læringsmodeller, så en MLOps-plattform som er i stand til å slite og kostnadshåndtere slik maskinvare i skyen er kritisk.

Piantino og Negris beskrev staveplattformen og påpekte hvor nøye den håndterer tilgjengelighet og kostnad for CPU- og GPU-baserte klyngenoder. En spesielt interessant evne til Spell-plattformen er at den kan lage bassenger med sky spot-forekomster og gjøre dem tilgjengelige for brukere på forespørsel. Spell Virtual On-Demand Instances gir derfor bruk på forespørsel til spotpriser, noe som representerer betydelige besparelser for kundene, spesielt når det gjelder GPU-ressurser for opplæring av komplekse deep learning-modeller.

Siden spotforekomster ofte kan avbrytes, er Spell-plattformen designet for å være motstandsdyktig rundt akkurat det scenariet, slik at langvarige opplæringsjobber kan utføres, selv i tilfelle forhåndsbetingelser, uten brukerintervensjon. Spell gjør dette gjennom sin evne til å rekonstruere et dypt læringsmiljø på en ny forekomst, og nøye spore hele opphavet og slekten til slike miljøer. Denne tilnærmingen hjelper også på modellens reproduserbarhet og omskolering av modeller under de samme konfigurasjonene som i de første opplæringsmiljøene.

DLOps kontra MLOps

Spell -folkene diskuterte ikke bare plattformen sin, de demo det også. Etter hvert som de gjorde det, ble det klart at mange av tilleggene til standard MLOps (og til og med AutoML) – inkludert eksperimentstyring, modelllager, avstamning, overvåking og forklarbarhet – også er tilstede i Spells DLOps -plattform. Som sådan ser det sikkert ut som DLOps er et supersett av konvensjonelle MLOps, og jeg spurte Piantino og Negris om det var tilfelle. De to var enige om at teknisk sett var formodningen min riktig, men forklarte at Spell ikke desto mindre er spesielt rettet mot bruk av dype læringsbruk. Spell ser det dype læringssegmentet til AI som det som har mest fart og handling.

Negris og Piantino forklarte at konvensjonelle MLOps -plattformer til slutt blir vedtatt når organisasjoner modnes til en viss skala og volum av maskinlæringsarbeid. Men de fleste kundene som gjør dyp læring, forklarte paret, trenger virkelig en ops -plattform fra dag 1. Dette forklarer whey Spell er virkelig fokusert på dette markedet – siden det har presserende krav og ikke trenger å bli utdannet til å forstå hvorfor det til slutt vil ha et smertepunkt å rette opp. I stedet føler dypt lærende kunder klemme umiddelbart.

Med dette i bakhodet ser det ut som om MLOps og DLOps ikke er så forskjellige, men at dyp læring stress tester en MLOps -plattform mer anstrengende enn tradisjonell maskinlæring gjør. I hovedsak kan DLOps -kravene i dag bli de vanlige MLOps -kravene i morgen. Om de to underkategoriene derfor en gang vil slå seg sammen, er uklart; det som er klart er at Spell kaster sin plattform over et legitimt og demonstrert behov, for å optimalisere og operasjonalisere dyp læring inn i bedriftens mainstream.

Relaterte emner:

Cloud Digital Transformation CXO Internet of Things Innovation Enterprise Software  Andrew Brust

Av Andrew Brust for Big on Data | 12. august 2021 – 13:00 GMT (14:00 BST) | Tema: Kunstig intelligens