IBM Clouds serverlösa färdplan går från soppa till nötter

0
104

 Tony Baer (dbInsight)

Av Tony Baer (dbInsight) för Big on Data | 8 september 2021 – 12:00 GMT (13:00 BST) | Ämne: Big Data Analytics

serverless.jpg

Serverlös dator har kommit långt sedan dess ödmjuka ursprung med programmering av enkla funktionstjänster som vanligtvis implementeras i lätta webb- eller mobilappar. I en ny briefing med analytiker granskade IBM sina planer för serverlösa tjänster i sitt moln, och framtiden pekar på nästan motsatsen till enkla funktioner: applikationer för komplex superdator.

Det är en del av en pågående expansion av IBM Cloud Code Engine, som lanserades först tidigare i år, för att bli en bred plattform för automatisering av distribution och körning av koder i ett brett spektrum av användningsfall, från funktioner till PaaS, batchjobb och containrar -som-en-tjänst. Som vi kommer att notera nedan är utvidgningen av detta till superdatorer ett markant skifte från det mycket ödmjuka ursprunget till serverlös datorer. Men också en del av färdplanen har att motorn omfattar ett helt spektrum av tjänster, som börjar med funktioner som en tjänst som IBM har erbjudit i ett antal år.

Serverless har alltid handlat om enkelhet. Ursprungligen fastställde det att eliminerar behovet av utvecklare att tillhandahålla eller skala infrastruktur. Det ledande antagandet är att utvecklare måste vara skickliga i de valda datorspråken – främst Java, JavaScript, Python – men de ska inte behöva oroa sig för att konfigurera eller hantera distribuerad infrastruktur, för att inte nämna Kubernetes (K8s) interna.

Som nämnts ovan erbjuder IBM redan grunderna: funktioner som en tjänst. Så gör alla andra stora molnleverantörer. Det var där serverless började: vid den tiden var den senaste tekniken möjligheten att automatiskt tillhandahålla och automatiskt skala relativt enkla, kortlivade arbetsbelastningar på varuberäkningsinstanser. IBMs planer för Code Engine går utöver automatisk administration och automatisk skalning för att automatiskt containerisera din applikation. Och det finns mer. IBMs färdplan för Cloud Code Engine omfattar också en Platform-as-a-Service (PaaS) som kommer att containerisera, distribuera, skala och köra kod. Under samma paraplytjänst kommer Code Engine också att stödja batchjobb, dit kunder tar med jobbet, och det kommer att distribuera, skala och köra det. Detsamma gäller containrar, antingen som kunder utvecklar eller köper från tredje part.

Och IBM försöker serverless Code Engine för att förenkla onramp till populära open source -ramverk som Ray, CodeFlare, Spark, TensorFlow, och så vidare. IBMs Project CodeFlare är ett projekt med öppen källkod som är utformat för att förenkla integrationen av komplexa ML- och AI -rörledningar genom ett gemensamt API; den är byggd ovanpå Ray -projektet som kommer från UC Berkeleys RISELab, som tillhandahåller ett API för att samordna distribuerad dator i stor skala. Vi gav bakgrund om Rays bana i ett stycke som dök upp på dessa sidor för några veckor sedan. Det här inlägget beskriver stegen för att konfigurera Ray in Code Engine; vi skulle gärna se nästa fas, där Code Engine ger möjlighet att automatisera många av dessa steg och avskaffa behovet av kommandoradsgränssnitt.

En annan pusselbit är att bygga ny mellanprogramvara som skulle tillåta AI -arbetsbelastningar att köras i hybridmoln, med IBM Cloud Satellite som det avsedda leveransfordonet. Kör utbildning och inferens (produktion) arbetsbelastningar för AI kommer att kräva orkestrering av flera verktyg och körtider.

Det här är inte din fars serverlösa. Att komma till batchjobb, applikationer, containrar och superdatorer ökar komplexiteten i uppgiften för serverless. Det handlar inte längre om att automatiskt fördela samma varuberäkning för kompakta funktioner, för nu är arbetsbelastningen lika mångsidig som den vanliga IT -egendomen. Det finns världar av skillnader för beräkningsinstanserna som automatiskt tillhandahålls för batchjobb jämfört med enkla funktioner, för att inte tala om neurala nätverk och massivt parallella beräkningar som kan associeras med superdatorer och djupa inlärningsarbeten. En storlek passar inte alla.

IBM har knappast varit ensam om att utöka räckvidden för serverless bortom funktioner. de tjänster som erbjuds av var och en av de stora molnleverantörerna har också expanderat bortom funktioner. Till exempel stöder AWS att köra containrar, händelsedrivna appar och arbetsflöden och synkronisera GraphQL API: er (för mobilappar). På Azure finns det serverlösa tjänster för beräkningar, arbetsflödesorkestrering, containeriserade AI -tjänster. Google Cloud erbjuder tjänster för att köra container- och webbapphotell.

Serverless har också skapat en stor närvaro i datautrymmet, där många operativa och analytiska dataplattformar erbjuds som serverlösa, antingen som tillval eller som standard. Till exempel Amazon DynamoDB och Aurora; Azure SQL Database och Cosmos DB; och Google Cloud BigQuery och Firestore erbjuds utan server, antingen som standard eller som alternativ. Detsamma gäller MongoDB och DataStax, som de senaste månaderna har rullat ut serverlöst. Detsamma gäller datarelaterade tjänster som AWS Glue och Azure Data Factory för datatransformation och Amazon Kinesis och Google Cloud Dataflow för dataströmning.

Inget är emellertid ytterligare ett skrik från ursprunget för serverless (för funktioner) som tanken att föra serverless till superdatorer, a.k.a, högpresterande datorer eller HPC, eller i folkmun, pinsamt parallella beräknade arbetsbelastningar. Detta är mycket mer utmanande terräng eftersom datapipelines och beräkningar är mycket mer komplexa och mer utmanande att modellera. Även om vissa former av superdatorer helt enkelt kan kedja ihop massor av varahårdvara, kan andra arbetsbelastningar (särskilt med djup inlärning) kräva mer specialiserade instanser, eller en blandning av varor och specialiserat kisel, minne och lagring, och så vidare.

Nu ska vi toppa det: I slutändan är IBM: s stretch -mål att göra kvantberäkning tillgänglig som en serverlös tjänst. IBM kanske inte är den enda molnleverantören som tar serverless bortom sina blygsamma rötter med att distribuera funktioner, men det är verkligen ambitiöst att ta serverless till extrem beräkning.

Upplysning: IBM är en dbInsight -klient.

< h3 class = "heading"> Big Data

Var är IBM: s hybridlanseringsplatta för moln? Sju sätt att göra realtidsteknik verklig för din organisation Maskininlärning på kanten: TinyML blir stor Vad händer nästa för Cloudera? McDonald's vill 'demokratisera' maskininlärning för alla användare i sin verksamhet

Relaterade ämnen:

Cloud Digital Transformation Robotics Internet of Things Innovation Enterprise Software

Av Tony Baer (dbInsight) för Big on Data | 8 september 2021 – 12:00 GMT (13:00 BST) | Ämne: Big Data Analytics