Hvad er Kubernetes? Alt, hvad din virksomhed har behov for at vide

0
180

VMware omfatter Kubernetes lidt mere: Hvorfor denne gang er det spørgsmål
Open source arbejdsbyrde orkestrering system, der allerede er genskabt data center kunne snart være i midten af den største virtualisering, platform, som virksomheder, der allerede bruger i dag. Frø til en ny industri, der må plantes, om virksomhederne ved det eller ej. ZDNet ‘ s Scott Fulton fortæller Karen Roby dette kunne være den grundlæggende flytte til en ny og bedre måde for mennesker overalt til at bruge de programmer på deres computere og enheder – det er, om tredje gang er virkelig charme til VMware. Læs mere: https://zd.net/2UTy1E4

Hvad “orkestrering” betyder

Orkestrering er en effektiv forvaltning og udførelse af flere arbejdsbyrder samlevende en IT-platform. I Kubernetes’ tilfælde er der visse workloads kan komme på den platform, der allerede er blevet opdelt i microservices. De stadig arbejde sammen, men som selvstændige enheder. Kubernetes orkestrering gør det muligt for de enheder, der skal ganges og omfordeles efter behov, og som udfases, når der ikke længere er i brug.

Som dirigent for et orkester?

Forkert analogi. En dirigent, der sikrer, at et stykke er udført i ordentlig tid og rytme. I datacenteret, er operativsystemet fortsat med at spille denne rolle — Kubernetes ikke ændre dette. En orchestrator koordinater udførelse af alle dele i sammensætningen for maksimal effektivitet og problemfri ydeevne, så den ene del ikke kan overdøve de andre, og alle dele spiller deres bidrager roller effektivt. Fordi disse dele kan blive distribueret bredt blandt flere steder, en orchestrator også samler alle de ressourcer, der skal dele kan kræve, at bidrage til den samme opgave ved hånden.

Kontrasterende en orchestrator fra et operativsystem

Et operativsystem på en computer, blandt andre ting, der gør det muligt for et program at blive henrettet af sit processor sikkert og som forventet. Kubernetes opfylder denne rolle til flere arbejdsopgaver samtidig, der er fordelt blandt en flerhed af servere i et cluster.

Dette er ikke til at sige, Kubernetes er et operativsystem, der er skaleret op. OS, der stadig spiller den rolle, arrangering af udførelsen af hvert program. Og i en container miljø (mindst, sin oprindelige miljø, som det oprindeligt blev designet) hver container er vært er ikke hypervisor, som det er med vSphere eller KVM, men snarere OS.

I én henseende, men, hvad et operativsystem er, at en enkelt computer, en orchestrator er et cluster af servere: Den fører tilsyn med gennemførelsen af software i et system, hvis infrastruktur ressourcer — sin processorkraft, hukommelse, lagring og netværk faciliteter-og alle er blevet slået sammen. Kubernetes afgjort sagen, som orchestrator data center vil foretrække, i en meget kort periode, som de allierede tropper, der befriede Kuwait. Som Operation Desert Shield, Kubernetes havde en simpel strategi, der blev hurtigt udført.

Hvor kommer al den software, skal du gå?

I den moderne datacenter, software, ikke behøver at være “installeret” på en computer. Snarere, det er mere som en bog, der er lånt fra et bibliotek, der er kun en, der er i stand til at udgive bogen, før den er lånt ud. I containerization rige, er dette bibliotek kaldes et register. Open-source-pakker, der er udlånt fra et register komme i fuldt monteret beholdere. Det handler om at gøre et program eller en tjeneste, der er tilgængelig via et register, der føres ind i en Kubernetes-styret miljø, kaldes implementering. Så når vi taler om “implementering af arbejdspres,” vi er med henvisning til lov om udarbejdelsen af software for levering til en server cluster, hvor det er lykkedes og orkestreret.

Kubernetes er bygget til at hente arbejdsbyrde pakker fra registre, køen dem til indsættelse i systemet, styre deres fordeling blandt de klynger de kan overvåge og styre deres adgang til ressourcer, der stilles til rådighed via disse klynger.

Hvorfor er containerization så vigtigt, hvis det kan have sådan en elendig navn?

Containerization er tendensen officielt startet af Docker Inc., derefter drevet ind i warp-hastighed med Google, og nu følgeskab af de fleste alle andre i platform plads, herunder Microsoft og VMware. Det var en esoterisk aspekt af data center management, fik vi at vide fire år siden, at der ville gå ubemærket af den daglige bruger. Men hver seer, Netflix og Amazon Prime, og alle brugere af Alexa, og Siri, føles denne indflydelse på første hånd, selv om hun ikke var i stand til at identificere kilden. At flytte fokus af data center management fra maskiner til arbejdsmængder revolutioneret den måde, applikationer og tjenester er leveret.

Snarere end “containerization,” der lyder som en måde at industrialiseringsproces et Tupperware party, det kunne kaldes “arbejdsbyrden revolution.” Netværk er nu ved at blive dirigeret i retning af funktioner snarere end i retning af maskiner. Det er vanskeligt at se betydningen af denne idé i praksis uden en tilstrækkelig, i den virkelige verden analogi: Hvor mange telefonnumre kan du huske fra toppen af dit hoved? Er der større eller færre mønstre af cifre i dit sind, nu da smartphones har kontakt lister, og kan reagere på din stemme?

Hvad er det for “arbejdsbyrde” business?

Et program, der kører på en computer er stadig “software”, der påberåber sig begrebet, at NASA ingeniører oprindeligt opfundet under Apollo-æra som et ordspil. Og en ansøgning er stadig et program designet til at blive drevet af flere brugere, og som er nævnt ved navn.

Ved sammenligning, en “arbejdsbyrde” er en smule mere utydelige. Det er sammensat af en eller flere stykker software. Det kan bruge en database, selvom det kunne være den samme database, som andre arbejdsopgaver på er at bruge. Det kan bestå af mere end én pakke i et register, der er samlet på farten og deling af funktionalitet inden for en klynge. Men det typisk har én vigtigste formål, og er i stand til at fungere som en sammenhængende enhed, selv om det har nogen antallet af sammensatte dele.

Software-udviklere typisk ikke sidde ned til deres skrivebord og komponere arbejdsmængder. De stadig skrive programmer. Men i processen med implementering af containere, samlet omkring de programmer, de instruktioner, der gives til en orchestrator som Kubernetes ende med at erklære de parametre, der arbejder for et aktivt arbejdsbyrde. Så i lov om installation, software bliver en arbejdsbyrde. Dens virkninger på forbrug af ressourcer i et datacenter, der kan måles og mindskes, ligesom virkningerne af en arbejdsbyrde i den daglige verden af mennesker og ting, som kan måles og mindskes for de ansatte.

Controllere er beliggende inde i Kubernetes kontrol fly. For dem, der er afsendt med Kubernetes, deres primære funktion er at overvåge tilstanden af ressourcer på nettet infrastruktur, er i søgning af nogen ændringer. Det tager en begivenhed — et signal om en sådan en ændring, — at udløse en evaluerende funktion, der bestemmer, hvordan man bedst til at reagere. Den klasse af service, der kan uddelegeres opgaven med at reagere, er en operatør. For at gøre det muligt for orchestrator for at automatisere mere komplekse systemer, er en service, arkitekt vil tilføje enheder til kontrol fly, til at træffe beslutninger, og operatører på bagsiden ende til at handle på disse beslutninger.

Brugerdefinerede ressourcer

Det er strækbarheden af denne controller ordning, som kan i sidste ende være det mesterstykke, der cementerer Kubernetes’ position i data center. Som et resultat af en arkitektonisk tilføjelse, der kaldes brugerdefinerede ressource definitioner (CRD), Kubernetes kan iscenesætte andre ting end disse beholdere. Sagt på en anden måde, hvis du kan udforme en controller, der effektivt lærer Kubernetes til at genkende noget andet, som en orkestreret ressource, vil det gøre det. Hvad er det, vi taler om her, — hvad kan “noget andet” være?

Virtuelle maskiner (VM) – Den klassiske, hypervisor-drevne enheder, som understøtter et flertal af verdens virksomhedens arbejdsopgaver. VMware, hvis vSphere platform er den dominerende kommercielle førende i VM-management, har allerede påbegyndt et projekt, der skal gøre Kubernetes sin vigtigste VM orchestrator.Massiv databaser , hvis motorer og kontrol arbejdspladser har i de senere år flyttet til dedikerede systemer såsom Apache Hadoop og Spark — og der kunne tænkes at flytte væk disse platforme, hvis udviklerne bliver gratis igen til at skrive arbejdsbyrder ved hjælp af andre sprog end nogle få udvalgte, som Java, Scala, og R.High-performance computing (HPC) arbejdsbyrde for supercomputere, som historisk set har været styret af en dedikeret kalendere som Slurm og, mere nyligt, Apache Mesos. Deres dyd i data center som tid-orienteret planlægning agenter er nu spørgsmålstegn ved, som Kubernetes tilgange nær-filer..Machine learning-modeller, som kræver store datamængder med parallel adgang, samt deterministisk planlægning. Du måske tror, at disse faktorer alene ville diskvalificere Kubernetes som orchestrator eller infrastruktur formidler, men der er projekter, såsom Kubeflow, hvor databasen udbydere og kalendere, der giver disse funktioner, er selv udvalgt af Kubernetes.

Apache Mesos

Den etableret leder i arbejdsbyrden planlægning for distribuerede server klynger var Apache Mesos. Det banebrydende master/arbejdstager arkitektur (selv Mesos brugt et andet ord for “arbejder”), og var en af de første kalendere til at blive udvidet til et privat Cloud-platform, der hedder Marathon. Mesos’ første store udbredelse var på Twitter, hvor Ben Hindman var en ingeniør. I 2013, Hindman venstre for at fundet Mesos’ premier kommerciel leverandør, Mesosfaeren. At arbejde med Microsoft, Mesosfaeren produceret en af de første offentlige cloud-baserede Cloud-for at aktivere orkestreret, hybridiseret installationer: DC/OS, der så ud som om, at det ville blive valget arbejdsbyrde implementering platform for Azure. Mesos havde den i kraft af flere års anvendelse oplevelse, så det var en platform, der ikke alle var til at forstå fra begyndelsen.

Men den etablerede Mesos kunne ikke undgå virkningerne af en oprørske udfordrer med hovedet fuld af damp. I August 2017, VMware udnyttet de ressourcer, der er af søsterselskabet, Afgørende, at lancere en cloud-baseret Kubernetes platform kaldet Afgørende Container Service, med en automatisk installation mekanisme, der kaldes Kubo, der kom op gennem rækkerne fra Cloud Foundry. Hurtigt, Azure fulgt trop, effektivt tilbage-burnering sine DC/OS-projekt. Så i juni 2018, den gæve Amazon overgav sin defensive position, og åbner op for sin Kubernetes implementering platform. Og til sidst, nogle mener, at IBM ‘ s overtagelse af Red Hat, som lukkede i juli sidste år, var om IBM har behov for en bedre Linux-distribution. OpenShift havde allerede banet ruter til det distribuerede data center, som IBM har fundet, at det ikke længere er behov for at bane igen.

Nederlaget var så fuldstændigt, at Mesosfaeren ikke længere kunne gøre forretninger med dette navn, rechristening selv D2IQ i August sidste år, og lovede at etablere en “Ksphere” af sine egne. Og i begyndelsen af oktober, Dokker foreslog, at sine brugere prøve at køre Kubernetes og Sværm side-by-side. “Nye brugere finder det meget nemmere at forstå, Dokker Sværm,” sin virksomhed, blog-indlæg læse. “Men Kubernetes har udviklet sig til at tilføje en masse funktionalitet.”

Hvor Kubernetes går fra her

Op til nu, en stor del af diskussionen om data center re-arkitektur er centreret omkring emnet overflytning af gamle arbejdsbyrde til nye modeller. Applikationer, som vi er kommet til at kende dem, der er blevet kaldt “bautasten”, fordi, som det mystiske objekt i filmen “2001,” de er enestående, næsten solidt, og lige så uforklarligt, efter at have siddet i teatret for fire timer, som de var i starten. De er sammensat af kode, som kun dets skaber, ved, hvordan at ændre.

Flytter til Kubernetes er blevet beskrevet som en proces, der migrerer bautasten. Nogle har sagt, at dette kan kun gøres ved at genopbygge microservices netværk, der opfører sig som deres monolitiske forgængere, men at erstatte dem helt. Andre siger, at det er muligt at pakke en API omkring en monolitisk service og distribuere, at API gennem et netværk i en microservices mode. Det ville være nemmere at gøre, og ville ikke betyde så meget for at gentage den samme funktionalitet, som de virksomheder, der allerede ejer.

Nu, takket være Kubernetes ” CRD, at parafrasere Arlo Guthrie, der er en tredje mulighed, som ingen endnu tælles på: Kubernetes selv kan migrere til at opfylde behovene af eksisterende arbejdsopgaver. Måske verdens mest aktive open-source software-projekt, Kubernetes vedligeholdes af bogstaveligt talt hundredvis af ekspert ingeniører, der kan hjælpe virksomheder i udarbejdelse eller tilpasning af controllere og-operatører, at de ville nødt til at automatisere deres software forsyningskæder.

De mennesker, der skabte Kubernetes sagde for et par år siden ville der være et tidspunkt, når deres skabelse, der blev så meget en del af alles datacentre, at de ville være kedeligt, og ingen ville læse en artikel om det. Fra hvad jeg er vidne til, at dagen er stadig mindst flere år væk.

Få mere at vide-Fra CBS Interaktive Netværk

Kubernetes’ næste skridt kunne være at forsøge at iscenesætte alt andet af Scott M. Fulton, III, ZDNet5G afhænger Kubernetes i den sky af Steven J. Vaughan-Nichols, ZDNet Linux og Open Source, Hvorfor Red Hat ser Knative som svar til Kubernetes orkestrering af James Sanders, TechRepublic Cloud

Andre steder

Kubernetes Brugerdefinerede Ressource Definitioner: CRDs Forklares ved at BMC SoftwareKubernetes Arkitektur 101 af Aqua Container SikkerhedForståelse Kubernetes Arkitektur af Edureka

Relaterede Emner:

Datacentre

Cloud

Opbevaring

Servere

VMWare