For første gang på et par år skal vi hoppe på et fly for å treffe AWS re:Invent rett etter at vi har fordøyd vår Thanksgiving-kalkun. Det er mange tredjepartstjenester som lover å passe skyfotavtrykkene dine for å holde de månedlige regningene i sjakk. Men hvert år, når vi går på messegulvet i Vegas, har vi lurt på når noen ville komme opp med en løsning for å trene en maskinlæringsmodell på jobben for å utføre jobben mer systematisk. Det er én fast forhåndskunngjøring før alt bråket for å kunngjøre nettopp det.
CAST AI er en to år gammel startup som kommer med den typen dristige påstander som tjenesteleverandører vanligvis tilbyr; i dette tilfellet hevder den at den kan halvere regningene dine for cloud compute. I et tidligere liv ledet medstifterne Zenedge, et skybasert cybersikkerhetsfirma som til slutt ble kjøpt opp av Oracle. Som ethvert selskap som er født i skyen, søkte det en bedre måte å holde sine månedlige nettskyregninger på. Og så, i medstifternes neste handling, var dette problemet de trente blikket på.
I dataverdenen har vi sett AI være rettet mot å optimalisere spørringer, justere databaseytelsen, og, når det gjelder Oracles autonome database, kjøre hele greia. Det er mye maskinlæring som brukes for å forutsi eller forhindre avbrudd.
Så hvorfor ikke bruke maskinlæring for å forme skyberegningsfotavtrykket? Det er et naturlig problem for maskinlæring å løse fordi det ikke er mangel på loggdata, og problemet er ganske lineært og skarpt definert. Nøkkelvariantene er arten og egenskapene til arbeidsbelastningen sammen med den underliggende datainfrastrukturen. Det er et problem som utskalerer menneskelig læring fordi, når det gjelder AWS (og andre skyleverandører), er det lett hundrevis av dataforekomsttyper og relaterte lagringspermutasjoner.
CAST AI introduserte sin første tjeneste for omtrent seks måneder siden, og gir sanntidsanalyse av øyeblikksbilder av arbeidsbelastning for å identifisere den beste forekomstkonfigurasjonen. Den begrenser seg til skybaserte, containeriserte arbeidsbelastninger som kjører under Kubernetes (K8s). For eksempel kan en datamaskinintensiv arbeidsmengde med åtte C5a.large-forekomsttyper kjøres billigere ved å bruke tre C5a.2xlarge-typer i stedet.
Ved å holde fokus på skybaserte containeriserte arbeidsbelastninger orkestrert av K8s, drar den fordel av de deklarative container-API-ene som beskriver egenskapene til arbeidsbelastningen. Og ved å kun jobbe i K8s-miljøet, rydder det veien for optimaliseringstjenesten “umiddelbar rebalansering” som ble annonsert denne uken. Det gjør det mulig for klynger å tilpasse klyngekonfigurasjonen i riktig størrelse, og dra nytte av automatiseringen (gjennom K8s orkestrering) for å utføre autoskaleringen. Denne funksjonen erstatter manuelle lastrebalanseringstrinn som utføres med jevne mellomrom.
Kostnadsoptimalisering av skyen er et åpenbart mål for bruk av maskinlæring; det er ingen mangel på skykunder som ønsker å få regningene under kontroll. Dette har tradisjonelt krevd at ledere overvåker CloudWatch eller implementerer regelbaserte kontroller som brått reduserer arbeidsbelastningen. Når vi når utstillingsgulvet til re:Invent, forventer vi at CAST AI vil ha mye mer selskap.
Big Data
Microsofts SQL Server 2022 rulles ut i privat forhåndsvisning EDB slipper løs BigAnimal i skyen Google Cloud Neste: Møt bedriften der den bor Microsoft forbedrer skydatabasen, lager- og innsjøtjenester Cloud | Digital transformasjon | Robotikk | Internet of Things | Innovasjon | Enterprise Software