Kan en Machine Learning-model tæmme dine skyomkostninger?

0
118

Tony Baer (dbInsight)

Af Tony Baer (dbInsight) til Big on Data | 23. november 2021 | Emne: Big Data

For første gang i et par år hopper vi på et fly for at ramme AWS re:Invent lige efter, at vi har fordøjet vores Thanksgiving-kalkun. Der er masser af tredjepartstjenester, der lover at passe dine skyfodspor for at holde dine månedlige regninger i skak. Men hvert år, når vi går på messegulvet i Vegas, har vi spekuleret på, hvornår nogen ville finde på en løsning til at træne en maskinlæringsmodel på jobbet til at udføre jobbet mere systematisk. Der er én fast forhåndsmeddelelse før alt det tumult, der skal meddele netop det.

CAST AI er en to år gammel startup, der fremsætter de typer dristige påstande, som serviceudbydere typisk tilbyder; i dette tilfælde hævder det, at det kan halvere dine cloud compute-regninger. I et tidligere liv stod medstifterne i spidsen for Zenedge, et skybaseret cybersikkerhedsfirma, der til sidst blev opkøbt af Oracle. Som ethvert født i skyen-virksomheden søgte det en bedre måde at holde sine månedlige cloud computing-regninger på. Og så, i medstifternes næste handling, var dette problemet, de trænede deres syn på.

I dataverdenen har vi set AI være rettet mod at optimere forespørgsler, justere databasens ydeevne og, i tilfælde af Oracles autonome database, køre det hele. Der er masser af maskinlæring, der bruges til at forudsige eller forhindre udfald.

Så hvorfor ikke anvende maskinlæring til at forme cloud compute-fodaftrykket? Det er et naturligt problem for maskinlæring at løse, fordi der ikke er mangel på logdata, og problemet er ret lineært og skarpt defineret. Nøglevarianterne er arten og karakteristika for arbejdsbyrden sammen med den underliggende computerinfrastruktur. Det er et problem, der overskrider menneskelig læring, fordi der i tilfælde af AWS (og andre cloud-udbydere) nemt er hundredvis af computerinstanstyper og relaterede lagerpermutationer.

CAST AI introducerede sin første service for omkring seks måneder siden, der giver realtidsanalyse af arbejdsbelastningssnapshots for at identificere den bedste instanskonfiguration. Det begrænser sig til cloud-native, containeriserede arbejdsbelastninger, der kører under Kubernetes (K8s). For eksempel kan en computerintensiv arbejdsbyrde med otte C5a.large-forekomsttyper køre billigere ved at bruge tre C5a.2xlarge-typer i stedet.

Ved at holde fokus på cloud-native containeriserede arbejdsbelastninger orkestreret af K8s, udnytter den de deklarative container API'er, der beskriver arbejdsbyrdens egenskaber. Og ved kun at arbejde i K8s-miljøet, baner det vejen for optimeringstjenesten “instant rebalancing”, der annonceres i denne uge. Det giver klynger mulighed for at tilpasse klyngekonfigurationen i den rigtige størrelse, mens du drager fordel af automatiseringen (gennem K8s orkestrering) til at udføre autoskaleringen. Denne funktion træder i stedet for manuelle belastningsrebalanceringstrin, der udføres med jævne mellemrum.

Omkostningsoptimering af skyen er et oplagt mål for at anvende machine learning; der er ingen mangel på cloud-kunder, der søger at få styr på deres regninger. Dette har traditionelt krævet, at ledere overvåger CloudWatch eller implementerer regelbaserede kontroller, der brat drosler arbejdsbelastningerne ned. Når vi når udstillingsgulvet i re:Invent, forventer vi, at CAST AI vil have meget mere selskab.

Big Data

Microsofts SQL Server 2022 ruller ud i privat preview EDB frigiver BigAnimal i skyen Google Cloud Næste: Mød virksomheden, hvor den bor Microsoft forbedrer sin clouddatabase, lager og søtjenester Cloud | Digital transformation | Robotik | Internet of Things | Innovation | Enterprise Software