Kan en maskininlärningsmodell tämja dina molnkostnader?

0
125

Tony Baer (dbInsight)

Av Tony Baer (dbInsight) för Big on Data | 23 november 2021 | Ämne: Big Data

För första gången på ett par år kommer vi att hoppa ett plan för att träffa AWS re:Invent direkt efter att vi har smält vår Thanksgiving-kalkon. Det finns gott om tredjepartstjänster som lovar att passa dina molnavtryck för att hålla dina månatliga räkningar i schack. Men varje år, när vi går till mässgolvet i Vegas, har vi undrat när någon skulle komma på en lösning för att träna en maskininlärningsmodell på jobbet för att utföra jobbet mer systematiskt. Det finns en fast föranmälan innan allt bråk att meddela just det.

CAST AI är en två år gammal startup som gör de typer av djärva påståenden som tjänsteleverantörer vanligtvis erbjuder; i det här fallet hävdar det att det kan halvera dina cloud compute-räkningar. I ett tidigare liv ledde medgrundarna Zenedge, ett molnbaserat cybersäkerhetsföretag som så småningom förvärvades av Oracle. Precis som alla företag som är födda i molnet, letade det efter ett bättre sätt att hålla sina månatliga molnräkningar. Och så, i medgrundarnas nästa akt, var detta problemet de tränade sina sikte på.

I datavärlden har vi sett AI som syftar till att optimera frågor, ställa in databasprestanda och, i fallet med Oracles autonoma databas, köra det hela. Det finns massor av maskininlärning som används för att förutsäga eller förhindra avbrott.

Så varför inte använda maskininlärning för att forma molnets fotavtryck? Det är ett naturligt problem för maskininlärning att lösa eftersom det inte råder brist på loggdata, och problemet är ganska linjärt och skarpt definierat. Nyckelvarianterna är arten och egenskaperna hos arbetsbelastningen tillsammans med den underliggande datorinfrastrukturen. Det är ett problem som överskrider mänskligt lärande eftersom det, i fallet med AWS (och andra molnleverantörer), lätt finns hundratals beräkningsinstanstyper och relaterade lagringspermutationer.

CAST AI introducerade sin första tjänst för ungefär sex månader sedan, som tillhandahåller realtidsanalys av ögonblicksbilder av arbetsbelastningen för att identifiera den bästa instanskonfigurationen. Den begränsar sig till molnbaserade, containeriserade arbetsbelastningar som körs under Kubernetes (K8s). Till exempel kan en beräkningsintensiv arbetsbelastning med åtta C5a.large-instanstyper köras billigare med tre C5a.2xlarge-typer istället.

Genom att behålla fokus på molnbaserade containeriserade arbetsbelastningar orkestrerade av K8s, drar den fördel av de deklarativa container-API:erna som beskriver arbetsbelastningens egenskaper. Och genom att endast arbeta i K8s-miljön, röjer det vägen för optimeringstjänsten “instant rebalancing” som tillkännages denna vecka. Det gör att kluster kan anpassa klusterkonfigurationen i rätt storlek i farten, och dra fördel av automatiseringen (genom K8s orkestrering) för att utföra autoskalningen. Den här funktionen ersätter manuella lastombalanseringssteg som utförs regelbundet.

Kostnadsoptimering av molnet är ett självklart mål för att tillämpa maskininlärning; det finns ingen brist på molnkunder som försöker få sina räkningar under kontroll. Detta har traditionellt sett krävt att chefer övervakar CloudWatch eller implementerar regelbaserade kontroller som plötsligt drar ner arbetsbelastningen. När vi når mässgolvet för re:Invent förväntar vi oss att CAST AI kommer att ha mycket mer företag.

Big Data

Microsofts SQL Server 2022 rullas ut i privat förhandsvisning EDB släpper lös BigAnimal i molnet Google Cloud Nästa: Mötet med företaget där det bor Microsoft förbättrar sin molndatabas, lager och sjötjänster Cloud | Digital transformation | Robotik | Internet of Things | Innovation | Företagsprogramvara