Spell introducerar MLOps för djupinlärning

0
97

 Andrew Brust

Av Andrew Brust för Big on Data | 12 augusti 2021 – 13:00 GMT (14:00 BST) | Ämne: Artificiell intelligens

 spell-dlops-marketecture-diagram.png

Stava DLOps arkitektur på hög nivå

Kredit: Stava

Produktkategorin för maskininlärningsoperationer (MLOps) har gått snabbt, särskilt under det senaste året, och flera plattformar har dykt upp för att ta det. Molnleverantörer inklusive AWS och Microsoft, analysspelare inklusive Databricks och Cloudera, MLOps rena spel som Algorithmia, och till och med projekt med öppen källkod som MLflow, erbjuder integrerade plattformar för hantering av maskininlärningsmodellsexperiment, distribution, övervakning och förklarbarhet. Nu erbjuder Spell, en New York City-baserad MLOps-start, en MLOps-plattform som är speciellt inriktad på djupinlärning. Som sådan hänvisar Spell till sin plattform, som tillkännagavs förra veckan, för att underlätta “DLOps”.

Läs också:

< Databricks ökar AI -ante med nya AutoML -motor och funktionslager < stark>Clouderas MLOps -plattform ger styrning och hantering till datavetenskapliga pipelines
Cloudera Machine Learning MLOps -paketet är allmänt tillgängligt eftersom det syftar till att hantera modeller, analyser

ZDNet pratade med Spells marknadschef, Tim Negris samt dess VD och medgrundare, Serkan Piantino (som tidigare fungerade som teknisk direktör på Facebook AI Research, och som öppnade Facebooks kontor i New York). Duon förklarade att de flesta av dagens framstående MLOps -plattformar tillgodoser konventionellt maskininlärning (klassificering, regression, klustering och liknande) och inte djupinlärning, som bygger modeller genom att lagra flera neurala nätverksstrukturer i en ensemble. Det gapet på marknaden är motivationen bakom Spells DLOps -plattform.

Särskilda krav

Varför ser Spell DLOps som en särskild kategori? Piantini och Negris förklarade att djupinlärning gäller särskilt bra för scenarier som involverar bearbetning av naturligt språk (NLP), datorsyn och taligenkänning. Modeller med djup inlärning är vanligtvis mer komplexa än sina konventionella motsvarigheter i ML -modellen och lär inte tränas på en datavetares bärbara dator. Istället drar nytta av djupinlärningsmodellträning ytterligare-och kraftfullare-molnbaserad hårdvara, inklusive CPU-baserad dator men särskilt GPU-baserad dator. Det senare kan vara ganska dyrt när det gäller experiment med djupinlärning och träning, så en MLOps-plattform som kan krångla och hantera sådan hårdvara i molnet är avgörande.

Piantino och Negris beskrev stavningsplattformen och påpekade hur noggrant den hanterar tillgänglighet och kostnad för CPU- och GPU-baserade klusternoder. En särskilt intressant funktion hos Spell-plattformen är att den kan skapa pooler av molnpunktsinstanser och göra dem tillgängliga för användare på begäran. Spell Virtual On-Demand Instances tillhandahåller därför on-demand-användning till spotpriser, vilket innebär stora besparingar för kunderna, särskilt när det gäller GPU-resurser för utbildning av komplexa deep learning-modeller.

Eftersom spotinstanser ofta kan avbrytas är Stavningsplattformen utformad för att vara motståndskraftig kring just det scenariot, så att långvariga utbildningsjobb kan utföras, även vid preempt, utan användarintervention. Spell gör detta genom sin förmåga att återskapa en djup inlärningsmiljö på en ny instans och noggrant spåra hela uppkomsten och härstamningen i sådana miljöer. Detta tillvägagångssätt underlättar också modellreproducerbarhet och omskolning av modeller under samma konfigurationer som i deras initiala träningsmiljöer.

DLOps kontra MLOps

Spell -folket diskuterade inte bara sin plattform, de demogade den också. När de gjorde det blev det klart att många av tillbehören till standard MLOps (och till och med AutoML) – inklusive experimenthantering, ett modellförvar, härstamning, övervakning och förklarbarhet – finns också i Spells DLOps -plattform. Som sådan ser det säkert ut som att DLOps är en superset av konventionella MLOps, och jag frågade Piantino och Negris om så var fallet. De två var överens om att tekniskt sett var min gissning korrekt, men förklarade att Spell ändå riktar in sig på fall av djupinlärning. Spell ser det djupa inlärningssegmentet av AI som det med mest fart och handling.

Negris och Piantino förklarade att konventionella MLOps -plattformar så småningom antas när organisationer mognar till en viss skala och volym av maskininlärningsarbete. Men de flesta kunder som gör djupinlärning, förklarade paret, behöver verkligen en ops -plattform från dag 1. Detta förklarar vassle Spell är verkligen fokuserad på denna marknad – eftersom det har brådskande krav och inte behöver utbildas för att förstå varför det så småningom kommer att ha en smärtpunkt att åtgärda. Istället känner kunder med djup inlärning nypan direkt.

Med detta i åtanke ser det ut som om MLOps och DLOps inte är så olika, men att djupinlärningstest testar en MLOps -plattform mer ansträngande än traditionell maskininlärning gör. I huvudsak kan dagens DLOps -krav bli morgondagens konventionella MLOps -krav. Om de två underkategorierna därför någon gång kommer att gå samman är oklart; det som är klart är att Spell kastar sin plattform över ett legitimt och visat behov, att optimera och operationalisera djupinlärning i företagets mainstream.

Relaterade ämnen:

Cloud Digital Transformation CXO Internet of Things Innovation Enterprise Software  Andrew Brust

Av Andrew Brust för Big on Data | 12 augusti 2021 – 13:00 GMT (14:00 BST) | Ämne: Artificiell intelligens