Spell introduce MLOps per il deep learning

0
159

Andrew Brust

Di Andrew Brust per Big on Data | 12 agosto 2021 — 13:00 GMT (14:00 BST) | Argomento: Intelligenza artificiale

spell-dlops-marketecture-diagram.png

Spell DLOps architettura di alto livello 

Credit: Spell

La categoria di prodotti delle operazioni di apprendimento automatico (MLOps) si è mossa rapidamente, soprattutto nell'ultimo anno, e sono emerse diverse piattaforme per affrontarla. I provider cloud tra cui AWS e Microsoft, i player di analisi tra cui Databricks e Cloudera, MLOps pure play come Algorithmia e persino progetti open source come MLflow, offrono piattaforme integrate per gestire la sperimentazione, l'implementazione, il monitoraggio e la spiegazione del modello di machine learning. Ora Spell, una startup MLOps con sede a New York, fornisce una piattaforma MLOps specificamente orientata al deep learning. In quanto tale, Spell si riferisce alla sua piattaforma, annunciata la scorsa settimana, come facilitatrice di “DLOps”.

Leggi anche:

Databricks aumenta la posta in gioco dell'IA con il nuovo motore AutoML e il nuovo feature store< forte>La piattaforma MLOps di Cloudera offre governance e gestione alle pipeline di data science
La suite MLOps di Cloudera Machine Learning generalmente disponibile in quanto mira a gestire modelli e analisi

ZDNet ha parlato con il capo del marketing di Spell, Tim Negris, nonché con il suo CEO e co-fondatore, Serkan Piantino (che in precedenza è stato direttore dell'ingegneria presso Facebook AI Research e che ha aperto l'ufficio di Facebook a New York City). Il duo ha spiegato che la maggior parte delle piattaforme MLOps di spicco di oggi si rivolge al machine learning convenzionale (classificazione, regressione, clustering e simili) e non al deep learning, che costruisce modelli stratificando più strutture di rete neurale in un insieme. Questa lacuna nel mercato è la motivazione alla base della piattaforma DLOps di Spell.

Requisiti speciali

Perché Spell vede i DLOps come una categoria distinta? Piantini e Negris hanno spiegato che il deep learning si applica particolarmente bene agli scenari che coinvolgono l'elaborazione del linguaggio naturale (PNL), la visione artificiale e il riconoscimento vocale. I modelli di deep learning sono in genere più complessi rispetto alle loro controparti di modelli ML convenzionali e non è probabile che vengano addestrati sul laptop di un data scientist. Invece, la formazione del modello di deep learning beneficia di hardware aggiuntivo e più potente basato su cloud, incluso il calcolo basato sulla CPU, ma soprattutto il calcolo basato sulla GPU. Quest'ultimo può essere piuttosto costoso quando si tratta di sperimentazione e formazione del modello di deep learning, quindi una piattaforma MLOps in grado di gestire e gestire i costi di tale hardware nel cloud è fondamentale.

Piantino e Negris hanno descritto la piattaforma Spell e hanno sottolineato con quanta cura gestisce disponibilità e costi dei nodi cluster basati su CPU e GPU. Una funzionalità particolarmente interessante della piattaforma Spell è che può creare pool di istanze cloud spot e renderle disponibili agli utenti su richiesta. Spell Virtual On-Demand Instances, quindi, fornisce l'utilizzo on-demand a prezzi spot, il che rappresenta un risparmio significativo per i clienti, specialmente nel caso di risorse GPU per l'addestramento di modelli complessi di deep learning.

Poiché le istanze spot possono e spesso vengono interrotte, la piattaforma Spell è progettata per essere resiliente proprio intorno a quello scenario, consentendo lo svolgimento di lavori di formazione di lunga durata, anche in caso di prelazione, senza l'intervento dell'utente. Spell fa questo attraverso la sua capacità di ricostituire un ambiente di apprendimento profondo su una nuova istanza, monitorando attentamente la genesi completa e il lignaggio di tali ambienti. Questo approccio aiuta anche nella riproducibilità del modello e nel riaddestramento dei modelli nelle stesse configurazioni di quelle dei loro ambienti di addestramento iniziali.

DLOp vs. MLOp

I ragazzi di Spell non hanno solo discusso della loro piattaforma, ma l'hanno anche dimostrata. Mentre lo facevano, è diventato chiaro che molti degli accessori di MLOps standard (e persino di AutoML) – tra cui la gestione degli esperimenti, un repository di modelli, lignaggio, monitoraggio e spiegabilità – sono presenti anche nella piattaforma DLOps di Spell. In quanto tale, sembra proprio che DLOps sia un superset di MLOp convenzionali, e ho chiesto a Piantino e Negris se fosse così. I due hanno convenuto che, tecnicamente parlando, la mia congettura era corretta, ma hanno spiegato che Spell si rivolge comunque specificamente a casi d'uso di deep learning. Spell vede il segmento del deep learning dell'IA come quello con più slancio e azione.

Negris e Piantino hanno spiegato che le piattaforme MLOps convenzionali vengono infine adottate una volta che le organizzazioni maturano a una certa scala e volume di lavoro di apprendimento automatico. Ma la maggior parte dei clienti che fanno deep learning, ha spiegato la coppia, ha davvero bisogno di una piattaforma operativa dal giorno 1. Questo spiega che il siero di latte Spell è davvero concentrato su questo mercato, poiché ha requisiti urgenti e non ha bisogno di essere istruito per capire perché alla fine avrà un punto dolente a cui rimediare. Invece, i clienti del deep learning sentono immediatamente il problema.

Con questo in mente, sembra che MLOps e DLOps non siano così diversi, ma che il deep learning sottoponga a test una piattaforma MLOps più strenuamente di quanto non faccia l'apprendimento automatico tradizionale. In sostanza, i requisiti DLOps di oggi potrebbero diventare i requisiti MLOps convenzionali di domani. Non è chiaro se le due sottocategorie un giorno si fonderanno; ciò che è chiaro è che Spell sta lanciando la sua piattaforma su un'esigenza legittima e dimostrata, per ottimizzare e rendere operativo il deep learning nel mainstream aziendale.

Argomenti correlati:

Cloud Digital Transformation CXO Internet of Things Innovation Enterprise Software Andrew Brust

Di Andrew Brust per Big on Data | 12 agosto 2021 — 13:00 GMT (14:00 BST) | Argomento: Intelligenza artificiale