VMware abbraccia Kubernetes un po ‘ di più: Perché questo tempo è importante
L’open source carico di lavoro di orchestrazione sistema che ha già rifatto il data center potrebbe presto essere al centro della più grande piattaforma di virtualizzazione che le imprese già in uso oggi. Il seme per una nuova industria può essere piantato sia le imprese sappiano o no. ZDNet Scott Fulton dice Karen Roby questo potrebbe essere il fondamentale passaggio per un nuovo e migliore modo per le persone di tutto il mondo di utilizzare le applicazioni sui propri computer e dispositivi – che è, se il terzo tempo è davvero il fascino di VMware. Leggi di più: https://zd.net/2UTy1E4
Quello di “orchestrazione” significa
L’orchestrazione è l’efficace gestione e l’esecuzione di più carichi di lavoro convivente di una piattaforma informatica. In Kubernetes’ caso, alcuni carichi di lavoro possono arrivare sulla piattaforma sono già stati suddivisi in microservices. Si lavora ancora insieme, ma come unità indipendenti. Kubernetes orchestrazione consente di quelle unità che devono essere moltiplicati e ridistribuiti come necessario e gradualmente quando non più in uso.
Come un direttore d’orchestra?
Sbagliato analogia. Un conduttore assicura che un pezzo viene eseguito in un tempo e un ritmo. In un centro dati, il sistema operativo continua a svolgere il ruolo — Kubernetes non cambia questo. Orchestratore coordina l’esecuzione di tutte le parti nella composizione per la massima efficienza e prestazioni ottimali, in modo che una parte non può escludere le altre, e tutte le componenti che contribuiscono funzioni in modo efficace. Perché da queste parti può essere ampiamente distribuiti tra le diverse posizioni, orchestratore assembla anche tutte le risorse che le parti possono richiedere a contribuire per lo stesso compito a portata di mano.
Contrasto orchestratore da un sistema operativo
Un sistema operativo su un computer, tra le altre cose, rende fattibile per un programma per essere eseguito dal processore in modo sicuro e come previsto. Kubernetes soddisfa tale ruolo, per di più carichi di lavoro contemporaneamente, che sono distribuiti tra una pluralità di server in un cluster.
Questo non è per dire Kubernetes è un sistema operativo che è ridimensionata. Il sistema operativo svolge ancora il ruolo di marshalling l’esecuzione di ogni programma. E in un containerizzato ambiente (almeno, il suo ambiente nativo, come era stato originariamente progettato) ogni contenitore dell’host non è l’hypervisor, in quanto è con vSphere o KVM, ma piuttosto il sistema operativo.
In un certo senso, però, cos’è un sistema operativo a un singolo computer, un orchestrator è un cluster di server: controlla l’esecuzione del software in un sistema in cui le risorse di infrastruttura-la sua potenza di elaborazione, memoria, storage, networking e servizi –, che sono tutti stati uniti. Kubernetes risolto la questione di cui orchestrator data center preferisce, in un periodo estremamente breve, come le truppe alleate che liberato il Kuwait. Come l’Operazione Desert Shield, Kubernetes era una semplice strategia che è stata prontamente eseguita.
Da dove viene tutto il software di andare?
Nei moderni data center, il software non ha bisogno di essere installato su un computer. Piuttosto, è più simile a un libro preso in prestito da una biblioteca, è solo uno che è in grado di pubblicare il libro prima di averlo dato in prestito. La containerizzazione regno, questa libreria è chiamato registro di sistema. Pacchetti Open-source in prestito da un registro di venire completamente assemblato contenitori. L’atto di fare un’applicazione o servizio disponibile tramite un registro per l’inserimento in un Kubernetes ambiente di gestione è chiamata distribuzione. Quindi, quando parliamo di “distribuzione dei carichi di lavoro,” ci si riferisce all’atto di preparare il software per la consegna di un cluster di server, in cui viene gestito e ben orchestrata.
Kubernetes è costruito per recuperare il carico di lavoro dei pacchetti da registri, coda di loro per la distribuzione del sistema, gestire la loro distribuzione tra i cluster controllano e regolano il loro accesso alle risorse rese disponibili attraverso questi cluster.
Perché containerizzazione così importante, se si può avere un pessimo nome?
Containerizzazione la tendenza è ufficialmente iniziato da Mobile Inc., poi spinto in ordito di velocità da parte di Google, e ora uniti da più di chiunque altro nella piattaforma di spazio, tra cui Microsoft e VMware. Era un aspetto esoterico di gestione del data center, ci è stato detto quattro anni fa, che sarebbe passato inosservato da parte dell’utente comune. Eppure ogni spettatore di Netflix e Amazon Prime, e a tutti gli utenti di Alexa e Siri, ha sentito l’impatto di prima mano, anche se non era in grado di identificare la sua origine. Spostando la messa a fuoco di gestione del data center, dalle macchine ai carichi di lavoro ha rivoluzionato il modo in cui le applicazioni e i servizi vengono erogati.
Piuttosto che di “containerizzazione”, che suona come un modo per industrializzare un party Tupperware, potrebbe essere chiamato “il carico di lavoro di una rivoluzione.” Le reti sono ora indirizzati verso funzioni piuttosto che verso le macchine. È difficile capire l’importanza di questa idea, in pratica, senza un sufficiente, in analogia con il mondo reale: quanti numeri di telefono ti ricordi la parte superiore della vostra testa? Ci sono più o meno i modelli di cifre nella tua mente, ora che gli smartphone hanno liste di contatti e che può rispondere alla tua voce?
Cos’è tutto questo “carico di lavoro” commerciale?
Un programma che viene eseguito su un computer è ancora “software”, invocando il termine che gli ingegneri della NASA originariamente coniato durante la Apollo era come un gioco di parole. E un’applicazione è ancora un programma progettato per essere gestito da più utenti e di cui da il nome.
In confronto, un “carico di lavoro” è un po ‘ sfumata. Si compone di uno o più pezzi di software. Si può utilizzare un database, anche se potrebbe essere lo stesso database che altri carichi di lavoro in uso. Esso può essere costituito da più di un pacchetto in un registro, montato al volo e funzionalità di condivisione all’interno di un cluster. Ma in genere ha uno scopo principale ed è in grado di funzionare come una unità coerente, anche se ha un qualsiasi numero di parti in composito.
Gli sviluppatori di Software in genere non sedersi alla propria scrivania e comporre i carichi di lavoro. Sono ancora scrivere i programmi. Ma nel processo di distribuzione di contenitori assemblati attorno a questi programmi, le istruzioni per un orchestrator come Kubernetes fine di dichiarare i parametri di lavoro, di un carico di lavoro attivo. Così nell’atto di distribuzione, il software diventa un carico di lavoro. I suoi effetti sul consumo di risorse di un data center può essere misurata e mitigato, proprio come gli effetti di un carico di lavoro nel dimenticare la vita quotidiana delle persone e delle cose, può essere misurata e ridotti per i lavoratori dipendenti.
I controller sono situati all’interno di Kubernetes piano di controllo. Per quelle che vengono spediti con Kubernetes, la loro funzione principale è quello di monitorare lo stato delle risorse sulle infrastrutture di rete, in cerca di eventuali modifiche. Ci vuole un evento-un segnale di un cambiamento, di attivare un valutativa funzione che determina il modo migliore di rispondere. La classe di servizio che può essere delegato il compito di rispondere è un operatore. Per rendere fattibile per il orchestrator per automatizzare i sistemi più complessi, un servizio architetto sarebbe aggiungere un controller per il piano di controllo per prendere le decisioni e gli operatori sul back-end di agire in base a tali decisioni.
Risorse personalizzate
È l’estensibilità di questo controller schema che potrebbe, alla fine, sarà il colpo da maestro che cementi Kubernetes posizione nel centro dati. Come risultato di un’addizione architettonica personalizzato definizione di risorsa (CRD), Kubernetes può orchestrare altre cose che di questi contenitori. Mettere un altro modo, se si può creare un controller che effettivamente insegna Kubernetes di riconoscere qualcosa come orchestrato risorsa, verrà farlo. Di che cosa stiamo parlando, qui, che cosa potrebbe fare il “qualcos’altro” essere?
Le macchine virtuali (VM) — Il classico, l’hypervisor-driven enti che supportano la maggior parte del mondo, i carichi di lavoro aziendali. VMware, la cui piattaforma vmware è predominante commerciale leader nella gestione delle VM, ha già avviato un progetto per rendere Kubernetes la sua principale VM orchestrator.Enormi database, i cui motori e di controllo posti di lavoro negli ultimi anni, si trasferisce a sistemi dedicati come Hadoop e Apache Scintilla — e che potrebbero spostare queste piattaforme, se gli sviluppatori di diventare ancora una volta a scrivere carichi di lavoro utilizzo di altre lingue oltre a un paio di selezionare, come Java, Scala, R.High-performance computing (HPC) carichi di lavoro per i supercomputer, che storicamente sono regolati da apposita utilità di pianificazione come Slurm e, più recentemente, Apache Mesos. La loro virtù del data center del tempo-programmazione orientata agli agenti è ora messa in discussione, come Kubernetes approcci vicino ubiquità.Apprendimento automatico di modelli, che richiedono grandi volumi di dati con accesso parallelo, deterministica di pianificazione. Si potrebbe pensare che questi fattori da solo, sarebbe squalificare Kubernetes, come l’orchestratore di infrastrutture o facilitatore, ma ci sono progetti come Kubeflow dove il provider di database e di pianificazione che forniscono queste caratteristiche, sono di per se stessi, previste dall’Kubernetes.
Apache Mesos
Affermata come leader nella pianificazione del carico di lavoro per la distribuzione dei cluster di server è Apache Mesos. Si è esplorato il padrone/lavoratore architettura (anche se Mesos usato una parola diversa per “operaio”), ed è stato uno dei primi utilità di pianificazione per essere esteso in un privato PaaS platform, chiamato Maratona. Mesos’ primo grande distribuzione a Twitter, dove Ben Hindman era un ingegnere. Nel 2013, Hindman a sinistra per trovare Mesos premier, commerciale, venditore, Mesosphere. Lavorare con Microsoft, Mesosphere prodotto uno dei primi pubblica basata su cloud PaaS per abilitare orchestrato, ibridato distribuzioni: DC/OS, che sembrava come se sarebbe diventata la scelta del carico di lavoro piattaforma di distribuzione per Azure. Mesos aveva la virtù di diversi anni di esperienza nel campo della distribuzione, quindi è stata una piattaforma che non tutti hanno avuto a capire dall’inizio.
Ma l’incumbent Mesos non poteva sfuggire gli effetti di un ribelle challenger con una testa piena di vapore. Nel mese di agosto 2017, VMware sfruttato le risorse della sua società sorella, Fondamentale, per il lancio di un cloud-based Kubernetes piattaforma Fondamentale Servizio Container, con una distribuzione automatica meccanismo chiamato Kubo che è venuto attraverso i ranghi da Cloud Foundry. Presto, Azure seguito l’esempio, in modo efficace back-burnering CC/progetto OS. Poi, nel giugno 2018, il coraggioso Amazon ceduto la sua posizione difensiva, aprendo il suo Kubernetes piattaforma di distribuzione. E, infine, sono in pochi a credere che IBM acquisizione di Red Hat, che ha chiuso lo scorso luglio, è stato di circa IBM necessità di una migliore distribuzione di Linux. OpenShift aveva già tracciato il percorso del data center distribuito che IBM trovato, non è più necessario spianare di nuovo.
La sconfitta è stata così completa che Mesosphere non poteva più fare affari con quel nome, rechristening stesso D2IQ agosto scorso, e giurando di stabilire un “Ksphere” propria. E all’inizio di ottobre, Mobile suggerisce che i suoi utenti di provare in esecuzione Kubernetes e Sciame side-by-side. “I nuovi utenti trovano molto più facile capire Mobile Sciame,” la sua società post del blog a leggere. “Tuttavia, Kubernetes si è evoluto per aggiungere un sacco di funzionalità.”
Dove Kubernetes passa da qui
Fino ad ora, gran parte del dibattito sulla data center di nuova architettura è stata centrata sul tema della migrazione delle vecchie carichi di lavoro per i nuovi modelli. Applicazioni come siamo venuti a sapere di loro sono stati chiamati “monoliti”, perché, come l’oggetto misterioso nel film “2001,” sono singolare, quasi solido, e altrettanto inspiegabile dopo la seduta in teatro per quattro ore come erano all’inizio. Sono composto di codice che solo il creatore sa come si cambia.
Movimento per Kubernetes è stato descritto come un processo di migrazione di monoliti. Alcuni hanno detto che questo può essere fatto solo attraverso la ricostruzione di microservices reti che si comportano come i loro monolitico predecessori, ma che sostituirli del tutto. Altri dicono che è possibile includere un’API intorno ad un monolitico di servizio per la distribuzione delle API attraverso una rete in un microservices moda. Sarebbe più facile da fare, e non coinvolge tanta fatica a replicare la stessa funzionalità che le imprese già in possesso.
Ora, grazie a Kubernetes ” CRD, per parafrasare Arlo Guthrie, c’è una terza possibilità, che nessuno ancora contare su: Kubernetes stesso può migrare per soddisfare le esigenze dei carichi di lavoro esistenti. Forse, il più attivo del mondo del software open-source del progetto, Kubernetes è mantenuto da centinaia di ingegneri esperti che hanno potuto assistere le imprese nell’elaborazione o di adattare il controller e gli operatori hanno bisogno per automatizzare il loro software di supply chain.
Le persone che hanno creato Kubernetes ha detto un paio di anni fa ci sarebbe stato un tempo quando la loro creazione è diventato così tanto una parte di tutti i centri dati, che sarei noioso e nessuno avrebbe letto un articolo su di esso. Da quello che sto vivendo, quel giorno è ancora almeno un paio di anni di distanza.
Scopri di più — Dalla CBS Interactive Network
Kubernetes’ il prossimo passo potrebbe essere quello di provare a orchestrare tutto il resto da Scott M. Fulton, III, ZDNet5G dipende Kubernetes nel cloud da Steven J. Vaughan-Nichols, ZDNet Linux e Open SourcePerché Red Hat vede Knative come la risposta a Kubernetes orchestrazione da James Sanders, TechRepublic Cloud
Altrove
Kubernetes Risorsa Personalizzata Definizioni: Crd Spiegato da BMC SoftwareKubernetes Architettura 101 da Aqua di Sicurezza del ContenitoreComprensione Kubernetes Architettura da Edureka
Argomenti Correlati:
Centri Dati
Cloud
Archiviazione
Server
VMWare