VMware omfattar Kubernetes lite mer: Varför denna gången är det frågor
Öppen källkod arbetsbelastning orkestrering system som redan omgjord datacenter kan snart vara i centrum av den största virtualiseringsplattform som företag använder redan idag. Fröet för en ny bransch kan planteras om företag vet om det eller inte. ZDNet Scott Fulton berättar Karen Roby detta kan vara den grundläggande flytta till ett nytt och bättre sätt för människor överallt att använda program på sina datorer och enheter – det är, om tredje gången är verkligen charmen för VMware. Läs mer: https://zd.net/2UTy1E4
Vad “orkestrering” innebär
Orkestreringen är en effektiv förvaltning och genomförande av flera arbetsbelastningar sambo en IT-plattform. I Kubernetes’ fall, vissa arbetsbelastning kan komma på den plattform som redan har indelats i microservices. De arbetar fortfarande tillsammans, men som självständiga enheter. Kubernetes orkestrering gör att de enheter som skall multipliceras och fördelas efter behov och fasas ut när de inte längre är i bruk.
Som dirigent för en orkester?
Fel analogi. En ledare ser till att en bit är utförd i rätt tid och rytm. I datacenter, operativsystem fortsätter att spela den rollen — Kubernetes inte ändra på detta. En orchestrator samordnar genomförandet av alla delar i sammansättningen för maximal effektivitet och jämn prestanda, så en del kan inte överrösta de andra, och alla delar spela sina bidrar roller på ett effektivt sätt. Eftersom dessa delar kan vara vitt spridda bland flera platser, en orchestrator också monterar alla de resurser som delar kan kräva att bidra till att en och samma uppgift på sidan.
Kontrasterande en orchestrator från ett operativsystem
Ett operativsystem på en dator, bland annat det som gör det möjligt för ett program att köras av sin processor på ett säkert sätt och som väntat. Kubernetes uppfyller denna roll för flera arbetsuppgifter samtidigt, som är fördelade på ett flertal servrar i ett kluster.
Detta är inte att säga Kubernetes är ett operativsystem som skalas upp. OS fortfarande spelar roll för packetering genomförande av varje program. Och i en container miljö (minst, dess naturliga miljö som den ursprungligen var utformad) varje behållare är värd är inte hypervisor, som det är med vSphere eller KVM, utan snarare OS.
I ett avseende, men, vad ett operativsystem är att en enda dator, en orchestrator är att ett kluster av servrar: Det övervakar genomförandet av programvara i ett system vars infrastruktur resurser — dess processorkraft, minne, lagring och nätverk faciliteter — har alla varit sammanslagna. Kubernetes löst frågan som orchestrator datacentret skulle föredra, i en mycket kort period, som de allierade trupper som befriade Kuwait. Som Operation Desert Shield, Kubernetes hade en enkel strategi som var snabbt genomförda.
Var kommer alla mjukvara gå?
I den moderna datacenter, mjukvara behöver inte vara “installerat” på en dator. Snarare, det är mer som en bok som är lånat från ett bibliotek, bara en som är kapabel av att publicera boken innan det är utlånad. I containerization rike, detta bibliotek kallas ett register. Paket med öppen källkod lånas ut från ett register kommer i fullt monterad behållare. Handlingen att göra ett program eller en tjänst som är tillgänglig via ett register för införande i ett Kubernetes-hanterad miljö kallas distribution. Så när vi talar om att “sprida arbetsbelastning,” vi är hänvisade till att agera för att förbereda programvara för leverans till en server kluster, där det hanteras och iscensatt.
Kubernetes är byggd för att hämta arbetsbelastning paket från register, kö dem för distribution i systemet, hantera deras fördelning bland de kluster som de övervakar och styr deras tillgång till resurser som görs tillgängliga genom dessa kluster.
Varför är containerization så viktigt om det kan ha en så usel namn?
Containerization är trenden officiellt började med Docker Inc., då drivs i varp hastighet av Google, och nu sällskap av de flesta alla andra på plattformen utrymme, bland annat Microsoft och VMware. Det var en esoterisk aspekt av data center management, vi var ju som sagt för fyra år sedan, som skulle gå obemärkt förbi den vardagliga användaren. Men varje betraktare av Netflix och Amazon Prime, och alla användare av Alexa och Siri, har känt denna påverkan i första hand, även om hon inte klarar av att identifiera sin källa. Flytta fokus data center management från maskiner till arbetsbelastning revolutionerat hur tjänster och tillämpningar levereras.
Snarare än “containerization,” vilket låter som ett sätt att industrialisera ett Tupperware party, det skulle kunna kallas “den arbetsbörda revolution.” Nätverk är nu att dirigeras mot funktioner, snarare än mot maskiner. Det är svårt att se betydelsen av denna idé i praktiken utan en tillräcklig, verkliga analogi: Hur många telefonnummer minns du inaktivera överst i ditt huvud? Är det större eller färre mönster av siffror i ditt sinne, nu när smartphones har kontaktlistor och kan svara på din röst?
Vad är allt detta “arbetsbelastning” företag?
Ett program som körs på en dator är fortfarande “programvara” som åberopar den term som NASA ingenjörer som ursprungligen myntades under Apollo-eran som en ordlek. Och en ansökan är ändå ett program som är avsett att användas av flera användare och som anges med namn.
Som jämförelse kan nämnas att en “arbetsbelastning” är lite suddigare. Det består av en eller flera bitar av programvara. Det kan använda en databas, även om det kan vara samma databas som andra arbetsbelastning använder. Det kan bestå av mer än ett paket i ett register, monteras på farten och dela-funktionen inom ett kluster. Men det som vanligtvis har ett huvudsakligt syfte och kan fungera som en sammanhängande enhet, även om den har någon av flera sammansatta delar.
Utvecklare brukar inte sitta ner till sitt skrivbord och komponera arbetsbelastning. Att de fortfarande skriva program. Men i processen för framtagning och behållare monteras runt dessa program, de instruktioner som ges till en orchestrator som Kubernetes sluta förklara att arbeta parametrar för en aktiv arbetsbelastning. Så i lagen av distribution av programvara blir en belastning. Dess effekter på resursförbrukning av ett datacenter kan mätas och mildras, precis som effekterna av en arbetsbelastning i den vardagliga sfären av människor och saker, kan mätas och minimeras för de anställda.
Styrenheter är placerade inuti Kubernetes kontroll plan. För de som levereras med Kubernetes, deras främsta funktion är att övervaka tillståndet av resurser på nätet, i jakt på eventuella förändringar. Det tar en händelse-en signal på en sådan förändring-för att utlösa en utvärderande funktion som avgör hur bästa för att svara. Den klass som kan delegeras uppgiften att svara är en operatör. För att göra det möjligt för orchestrator för att automatisera mer komplexa system, en tjänst som arkitekt skulle lägga controllers till kontroll plan för att fatta beslut och aktörer på baksidan slutet att agera på dessa beslut.
Egna resurser
Det är utökningar av denna controller system som, i slutändan, vara mästerstycke som cement Kubernetes plats i datacentret. Som ett resultat av ett arkitektoniskt tillskott som heter anpassad resurs definitioner (CRD), Kubernetes kan orkestrera andra saker än dessa containrar. Uttryckt på ett annat sätt, om du kan skapa en controller som effektivt lär Kubernetes att erkänna något annat, som en iscensatt resurs, det kommer att göra så. Vad är det vi talar om här-vad kan de “något annat” vara?
Virtuella maskiner (VM) – Den klassiska, hypervisor-drivna enheter som stöder en majoritet av världens företag arbetsbelastning. VMware, vars vSphere-plattformen är den dominerande kommersiella ledare i VM-ledning, har redan inlett ett projekt för att göra Kubernetes dess huvudsakliga VM orchestrator.Stora databaser vars motorer och kontroll jobb har de senaste åren flyttat till särskilda system såsom Apache Hadoop och Gnista — och som kan tänkas flytta bort de plattformar som om utvecklarna att bli fri igen för att skriva arbetsbelastning med andra språk än ett fåtal, såsom Java, Scala, och R.High-performance computing (HPC) arbetsbelastning för superdatorer, som historiskt sett har varit regleras av särskilda schemaläggare som Slurm och, mer nyligen, Apache Mesos. Deras dygd i datacenter som tid-orienterad schemaläggning agenter är nu ifrågasätts som Kubernetes metoder nära-utbyggda.Modeller, vilket kräver stora datamängder med parallell tillgång, liksom deterministiska schemaläggning. Du kanske tror att dessa faktorer i sig skulle diskvalificera Kubernetes som orchestrator eller infrastruktur kontaktpersonen, men det är sådana projekt som Kubeflow där databasen leverantörer och schemaläggare som ger dessa egenskaper är själva etablerats med Kubernetes.
Apache Mesos
Etablerade ledare i arbetsbelastning schemaläggning för distribuerad server kluster var Apache Mesos. Den banade väg för master – /arbetstagare arkitektur (även om Mesos används ett annat ord för “arbetare”), och var en av de första schemaläggare att utvidgas till en privat PaaS-plattform, som kallas Marathon. Mesos’ första stora utbyggnaden var på Twitter, där Ben Hindman var en ingenjör. I 2013, Hindman till vänster finns Mesos ” premier kommersiell leverantör, Mesosfären. Att arbeta med Microsoft, Mesosfären producerat en av de första offentliga molnet (PaaS) för att aktivera iscensatt, hybridiserad distributioner: DC/OS, som såg ut som om det skulle bli val arbetsbelastning utbyggnad plattform för Azure. Mesos hade på grund av flera år av utbyggnad erfarenhet, så det var en plattform som inte alla var tvungna att förstå från början.
Men den sittande Mesos kunde inte undgå effekterna av en upprorisk challenger med en fullständig huvudet i sanden. I augusti 2017, VMware tillvara de resurser som i systerbolaget, Svängbar, med att lansera en cloud-baserad Kubernetes plattform som kallas Central Container Service, med en automatisk distribution mekanism som kallas Kubo som kom upp i graderna från Cloud Foundry. Snart, Azure följt efter, på ett effektivt sätt tillbaka-burnering sin DC – /OS-projektet. Sedan i juni 2018, ståndaktig Amazon överlämnade sin defensiva position, att öppna upp sina Kubernetes platform. Och slutligen, några tror att IBM: s förvärv av Red Hat, som avslutades i juli förra året, var om IBM som behöver en bättre distribution av Linux. OpenShift hade redan banat vägar in i distribuerade datacenter som IBM hittade den inte längre behövs för att bana igen.
Nederlaget var så komplett att Mesosfären kunde inte längre göra affärer med det namnet, rechristening sig D2IQ i augusti förra året, och lovade att upprätta en “Ksphere” av sina egna. Och i början av oktober, Docker föreslog att dess användare prova att köra Kubernetes och Svärm sida-vid-sida. “Nya användarna tycker att det är mycket lättare att förstå Docker Svärm,” sin blogg inlägg att läsa. “Men, Kubernetes har utvecklats för att lägga till en massa funktioner.”
Där Kubernetes går från här
Hittills har mycket av diskussionen om data center re-arkitektur som har centrerad kring ämnet migrering av gamla arbetsbelastning till nya modeller. Applikationer som vi har lärt känna dem som har kallats “monoliths” eftersom, precis som den mystiska objekt i filmen “2001,” de är singular, praktiskt taget fast, och precis som oförklarligt efter att ha suttit i teater för fyra timmar som de var i början. De är består av kod som bara dess skapare vet hur man ändrar.
Flyttar till Kubernetes har beskrivits som en process för att migrera monoliter. Vissa har sagt att detta kan bara göras genom ombyggnad microservices nätverk som beter sig som sina monolitiska föregångare, men att byta ut dem helt och hållet. Andra säger att det är möjligt att linda ett API runt en monolitisk service och distribuera detta API via ett nätverk i en microservices mode. Det skulle vara lättare att göra, och inte innebära så mycket arbete att replikera samma funktionalitet som företag redan äger.
Nu, tack vare Kubernetes ” CRD, för att parafrasera Arlo Guthrie, det finns en tredje möjlighet som ingen ens räknas på: Kubernetes själv kan migrera för att möta behoven hos nuvarande arbetsbelastning. Kanske världens mest aktiva öppen källkod-projekt, Kubernetes underhålls av bokstavligen hundratals experter som kan hjälpa företag att utforma eller anpassa de registeransvariga och aktörer som de skulle behöva för att automatisera deras programvara försörjningskedjor.
De människor som skapade Kubernetes sagt för några år sedan att det skulle komma en tid när deras skapelse blev så mycket en del av allas våra datacenter, att de skulle vara tråkigt och ingen skulle läsa en artikel om det. Från vad jag bevittnar, att dagen är fortfarande flera år bort.
Läs mer-Från CBS Interactive Nätverk
Kubernetes’ nästa steg skulle kunna vara att försöka iscensätta allt annat Scott M. Fulton, III, ZDNet5G beror på Kubernetes i molnet av Steven J. Vaughan-Nichols, ZDNet Linux och Öppen KällkodVarför Red Hat ser Knative som svar på Kubernetes orkestrering av James Sanders, TechRepublic Moln
Någon annanstans
Kubernetes Anpassad Resurs Definitioner: CRDs Förklaras av BMC SoftwareKubernetes Arkitektur 101 av Aqua Container SecurityFörståelse Kubernetes Arkitektur av Edureka
Relaterade Ämnen:
Datacenter
Cloud
Förvaring
Servrar
VMWare