Come il “cloud-nativa” per le applicazioni stanno trasformando, e perché ha preso così tanto tempo

0
102

Zero

Per una maggiore applicazione, ad esempio un’unità di controllo industriale (ICS), un sistema di gestione dei contenuti (CMS), o in un ospedale management system (HMS) per essere “cloud-native”, il suo intero ciclo di vita deve esistere su una piattaforma cloud. E ‘ sviluppato o riuniti, è in scena e testato, è distribuito, il debug non c’, e in continuo aggiornamento. Non è “installato” su un server in un data center come una sorta di residenza permanente. E non è convertito in una immagine di una macchina virtuale solo per renderlo portatile in tutti i server. È progettato per il cloud, che non solo mandati cambiamenti fondamentali per la sua architettura, ma anche l’intera economia che la sostiene.

Inoltre: lavori di: Affrontare l’incombente carenza di competenze nel digitale

In un certo senso, l’evoluzione di applicazioni server-side, è il ripristino del corso aveva preso prima il PC era, quando processori x86 spinto mainframe e minicomputer nel data center. Una nube-applicazione nativa è fatto per i sistemi host, piuttosto che dover essere convertito o messo in scena in un ambiente virtuale che nasconde la natura del cloud.

Il ritorno di time-sharing

“Nel nostro sistema attuale, circa il 35 gli utenti possono ottenere un buon servizio di simultanea, ciascuno con l’illusione che lui ha il controllo completo della macchina. Ogni utente si siede alla macchina da scrivere macchina da scrivere, di tipi di il suo programma, e mantiene entrare correzioni fino a quando il suo programma finalmente funziona. Questo la rende comoda e piacevole da usare il computer”.

-John G. Kemeny e Thomas E. Kurtz
Il Dartmouth Tempo di condivisione del Sistema di Calcolo, aprile 1967

Fin dagli albori dell’informatica, il software è stato fatto per le macchine designato per l’esecuzione. Che non dovrebbe sorprendere nessuno. Dartmouth John Kemeny e Thomas Kurtz essenzialmente inventato l’informatica moderna elaborando un linguaggio pensato per resistere alla prova-e-errore di programmazione: BASIC. Il primo vero piattaforme di cloud computing, e il maggior successo di tali piattaforme, oggi, sono i diretti discendenti del loro lavoro. Il loro principio è che i programmi che possono fare il miglior uso della macchina su cui girano, devono essere coltivate e sviluppate all’interno di quelle macchine, piuttosto che di hash, anticipatamente su carta e compilato separatamente.

the-triumph-of-virtue-and-nobility-over-ignorance-by-tiepolo.jpg

“Il Trionfo della Virtù e la Nobiltà sull’Ignoranza” di Giovanni Tiepolo, ca. 1745. Norton Simon Museum.

Resi disponibili attraverso licenza Creative Commons CC0 1.0

Piattaforme di servizi

“Cloud-native” computing è questo stesso principio, esteso a comprendere le piattaforme cloud. Se vogliamo essere onesti (ora sarebbe un buon momento), allora dobbiamo riconoscere che il “cloud” è una singola macchina, almeno dal punto di vista delle applicazioni in esecuzione. Non è proprio una di nebbia o di un altro mondo ambiente, ma un cluster di processori collegati da reti ad alta velocità che per caso span pianeta. Le lingue progettato per ingegneria cloud di applicazioni native su questo enorme classe di macchine, sono i diretti discendenti di Dartmouth di BASE.

Anche: Utilizza il cloud come piattaforma per la trasformazione digitale

In primo luogo, il cloud natività rende il problema di dove un’organizzazione sceglie di ospitare delle sue applicazioni, perennemente aperta la questione. Cloud le applicazioni sono progettate per la portabilità. Un’infrastruttura cloud oggi viene spesso con una piattaforma di applicazioni come il Cloud Foundry (stewarded di Pivotal), Apprenda, o Red Hat OpenShift.

Presto la stessa frase “cloud-native” può cadere in disuso, come il tag degli anni 1990 e primi anni 2000, la TV mostra che leggere”, Girato in alta definizione!”

Per dare un senso a tutte le astrazioni

Dal momento che l’avvento di C++ e di alto livello, linguaggi di programmazione, la progettazione di software si è separato dal suo hardware sottostante da uno o più livelli di astrazione. I programmatori, ora conosciuto come gli sviluppatori, in genere, non hanno mai avuto a considerare l’architettura dell’hardware e l’infrastruttura di supporto.

Anche: Linux ora domina Azure

“Il cloud” (che è comunque troppo tardi per rinominare) è una macchina, anche se uno che attraversa il pianeta. Alcuni dei primi servizi cloud, tra cui l’originale “Windows Azure” nel 2008, sono stati stabiliti come un mezzo di messa in scena di un nuovo software, progettato con l’intento di esecuzione. Nonostante quello originale branding implicita, del software, il cui intento è quello di essere distribuito e non centralizzato — in altre parole, per essere eseguito sul Web piuttosto che un PC che funge da server — assume la sua forma.

Docker Engine

La rivoluzione del Mobile 2013 attivato tre situazioni ideali contemporaneamente:

Mobile disaccoppiato applicazioni dal server che li correva, attraverso l’ingegneria di standard di classe di portatili, software di base contenitore.È istituito un servizio di self-service meccanismo di distribuzione che ha reso fattibile per gli sviluppatori letteralmente costruire a livello locale, agire globale — per la fase di un’applicazione distribuita su una singola macchina, quindi spingere verso il cloud in modo semplice, automatizzato moda.Per sempre alterato l’architettura dell’applicazione basata su server, la creazione di almeno uno stile di programmazione, forse di più, che sono stati particolarmente indicata per l’impiego in cloud: cloud-applicazione nativa.

Questo è lo stesso “cloud” di cui abbiamo parlato prima?

Prima di andare avanti con quella frase, proviamo a risolvere la questione di ciò che pensiamo “cloud” è oggi. Noi che coprono la tecnologia per una vita hanno la tendenza a disegnare un rigido confine tra i data center aziendali e i fornitori di servizi cloud, che designa ciò che un’organizzazione può possedere e operare per se stesso come “qui” e il cloud”.

Questo non è ciò che il concetto del cloud, o ha mai realmente dire. La vostra organizzazione può essere in grado di ospitare proprio cloud applicazioni native, se si possiede o anche contratti di locazione dei server che li esegue, presso la sede che è proprietario o leasing da un provider di colocation come Equinix o Digital Realty. Quello che abbiamo chiamato “cloud ibrido”, come se si trattasse di una strana ma valida alternativa, è ora qualsiasi piattaforma cloud di cui servizi possono essere parte di proprietà e parte in leasing da un fornitore di servizi come Amazon, Microsoft, Google, IBM, dove questi servizi sono situati.

Anche: gli sviluppatori di tenere raggiungendo per il cloud

Proviamo a mettere questo in un altro modo, in termini senso, fin dall’inizio, prima che qualcuno si ridefinisce loro di dire qualcosa d’altro: Un cloud può essere una qualsiasi combinazione di risorse, che si trova ovunque sulla Terra, la cui connettività di rete consente loro di funzionare in concerto per un’unica assemblea di server. Un’organizzazione in grado di possedere e gestire il suo proprio cloud nella sua interezza, anche se in genere non lo fa. Commerciali, fornitori di servizi cloud (i tre più grandi dei quali sono di Amazon AWS, Microsoft Azure, il Cloud di Google) offrire un’organizzazione risorse di cui può avere bisogno, per la fase a qualsiasi o tutte le sue applicazioni nello spazio ora chiamiamo il cloud pubblico. Alcune aziende non possiede né azioni proprie risorse di calcolo, optando invece per la locazione di tali risorse pubbliche, e fornitori di servizi cloud interamente.

Così, quando diciamo che un’applicazione è “nativo” per questo tipo di cloud, quello che vogliamo dire è che non solo era costruito per la distribuzione c’è, ma che è portatile per tutta la parte di spazio cloud comprende. La nuvola di punti insieme più aree di sosta per le applicazioni e le loro risorse, compresi i database in un unico paesaggio. Cloud-applicazione nativa percepisce questo paesaggio. Ancora più importante, non è necessario scavare più a fondo nelle infrastrutture di server o centri dati in cui porzioni di paesaggio che sono ospitati.

Come la casa per un cloud-applicazione nativa è costruito

Dire, per esempio, che un’impresa che gestisce un ambiente VMware vSphere. Originariamente, vSphere è stato destinato ad ospitare macchine virtuali (Vm) che si comportano come server fisici, ma reso come software. Ora, per mezzo di un prodotto di estensione chiamato vSphere Cloud Fondazione, può anche ospitare e gestire la nuova razza di una alternativa di applicazioni, che sono molto più portatile e che esistono al di fuori di macchine virtuali.

180827-vmworld-2018-day-1-15-pat-gelsinger.jpg

CEO di VMware, Pat Gelsinger spiega VMware Fondamentale Contenitore di Servizio per i partecipanti di VMworld 2018 a Las Vegas.

Scott Fulton

Come VMware ha annunciato lo scorso novembre, ad containerizzato applicazioni saranno in grado di rendere l’utilizzo di risorse come potenza di calcolo, di storage e servizi di database da Amazon AWS. VMware ha fatto una simile patto con Google Cloud anno precedente. Come risultato, un’organizzazione di cloud ibrido può consistere di risorse riuniti dal provider pubblico e propri centri dati. VSphere percepisce queste risorse come un unico spazio in cui è possibile gestire le applicazioni.

Inoltre: 8 passi per diventare un ‘cloud-native’ enterprise

Quindi un’applicazione progettata per tale ambiente, e, forse, all’interno di questo ambiente, sarebbe “cloud-nativo.” Rispetto a un server basato su applicazione scritta per uno stand-alone di Windows Server o Linux in ambiente cloud versione nativa sarebbe capace di distribuzione ovunque in questo spazio.

Questo tipo di accordo non è affatto esclusivo per vSphere. Se un’organizzazione aveva il suo OpenStack cloud on-premise, si potrebbero integrare le proprie risorse private in una certa misura con AWS, Microsoft Azure, o Google Cloud. (Se lo fa con la semplicità è una questione di dibattito aperto, ma almeno è aperto.) Un’organizzazione con Microsoft Azure Stack può creare e distribuire applicazioni con Visual Studio (o la sua eccezionale open source controparte, VS), del Codice) sui propri server nel proprio data center, e di integrare le risorse con quelle del pubblico Azure cloud come necessario.

E in base alle informazioni che abbiamo oggi a disposizione, crediamo che un’impresa, che sottoscrive AWS Avamposti dovrebbe essere in grado di costruire un’applicazione orientata ad Amazon EC2, e la distribuzione al AWS server trova la sede dei clienti. Questo sarà un cloud-applicazione nativa, ma non necessariamente in un cloud pubblico, a meno che e fino a quando il cliente si muove, non esiste, o parte di essa c’è, intenzionalmente.

Perché il cloud natività improvvisamente importante, adesso,

Confrontando le applicazioni native per migranti applicazioni

Maggior parte dei software server-side mai prodotto (cioè, non le applicazioni che girano su un PC o un cellulare, che sono “client-side”) è stato progettato per essere eseguito su una macchina convenzionale — una scatola con un processore, la sua memoria, alcuni locali di stoccaggio, e un sistema operativo per PC. Quando che la vecchia classe di software viene eseguito nel cloud, una macchina virtuale (VM) è stato creato per questo, che è di per sé un tipo di programma. Una VM finge di essere una macchina convenzionale, per il bene dell’applicazione, che spesso non conosce la differenza. Ma la VM è portatile e di facile gestione. Dovrebbe diventare danneggiato, un altro esempio può essere clonato da una precedente immagine per prendere il suo posto (“istanziato”).

Inoltre: Perché le app native non sono realmente destinati, per ora TechRepublic

Una nube-applicazione nativa non ha bisogno di fingere. Se esso viene eseguito in una macchina virtuale, come fanno in molti, quindi è in grado di diventare consapevoli della piattaforma cloud che è in esecuzione, che gli dà più controllo sul modo in cui viene gestito e distribuito in tutta la rete.

Questo dà luogo a due scuole di pensiero, entrambe sono ugualmente valide premesse per il cloud-nativo metodologie:

Infine, l’applicazione può essere consapevoli del proprio ambiente. Come un ospite di una macchina virtuale, un’applicazione davvero mai conosce i dettagli della vera natura delle infrastrutture di supporto. Come risultato, si può imparare a migliorare il proprio rendimento. Ora, per mezzo di componenti che servono come agenti remoti all’interno di contenitori (un esempio importante di essere NGINX Plus) un componente di un’applicazione in esecuzione può acquisire dati dal vivo su alcuni aspetti, alcuni di loro certamente esoterico, la sua configurazione e le prestazioni. Con questi dati, almeno in teoria, l’applicazione potrebbe prendere certe decisioni circa la sua configurazione e l’ulteriore distribuzione, orchestrare alcune delle proprie funzioni e, così facendo, evolversi per soddisfare scopi e situazioni.Infine, l’applicazione non ha bisogno di sapere nulla circa il suo ambiente. C’è una vocale in più scuole di pensiero in questi ultimi mesi, che può vantare i benefici di sviluppatori per costruire le proprie applicazioni, mentre esclusivamente focalizzata sulle esigenze del programma e gli interessi dell’utente, lasciando la gestione dell’hardware sottostante per l’ambiente, e la distribuzione del software per la orchestrator (più spesso in questi giorni, Kubernetes). Questi sono i sostenitori del cosiddetto serverless di architettura. Il primo tempo-i sistemi di condivisione, dicono, astratto, i dettagli di funzionamento del computer da parte delle funzioni del programma, e che l’astrazione può essere altrettanto valida e necessaria oggi.

Avete bisogno di microservices per essere veramente cloud-nativo?

Oggi, la seconda scuola di pensiero è, di gran lunga, il più vocale, anche se la sua filosofia di base è ancora completamente gel. Il cuore del serverless proposta di valore è il messaggio che le astrazioni sviluppatori liberi di pensare e lavorare nel regno dei problemi che stiamo cercando di risolvere. Questo va contro il concetto che l’infrastruttura IT di un’azienda è il cuore del suo business, e imposta il ritmo per il suo modello di business. Non è più tutto questo “allineamento strategico” tra business e tecnologia ali dell’organizzazione necessaria.

Inoltre: 8 modi per assicurarsi che si ha realmente bisogno microservices

Ma da lì, avvocati andare a sostenere la tesi a favore della decomposizione di applicazioni monolitiche in favore di un microservices-di base del modello, dove i singoli componenti si fondono verso obiettivi comuni. Specificando che quegli obiettivi comuni che sono, richiede esattamente il tipo di allineamento strategico che serverless sostenitori dicono di astenersi, in modo che le parti interessate possono ottenere sulla stessa pagina.

Alcuni sostenitori hanno continuato a registrare come sostenere un concetto che si chiama “cloud-nativo DevOps,” che consentirebbe il DevOps (sviluppatori + i professionisti le operazioni di movimento con il movimento verso entrambi serverless microservices architetture. Il problema con questa idea è la mancanza di qualsivoglia indicazione che l’Ops parte di quel movimento ha firmato su questa idea. Se gli sviluppatori sono, come serverless avvocati li ha descritti, hanno “liberato” per realizzare le loro idee e le loro orari, quindi, ad una separazione andrebbe contro il concetto di coalizione con Ops, la cui responsabilità includono l’impostazione di orari e di assicurarsi che gli sviluppatori sono consapevoli della loro infrastruttura.

L’evoluzione verso il cloud-nativo nel mondo reale

Smettiamola di parlare di tutte queste cose in astratto, e prendere una più pratica occhiata a ciò che questo significa in realtà, nel contesto della storia di una delle più comuni classi di applicazione lato server:

Un sistema di gestione dei contenuti (CMS) è abbastanza sofisticato database manager travestito, almeno in parte, come un word processor. Originariamente memorizzati e il rendering di pagine Web in documenti statici. Ma come consumatori necessarie Web per essere più funzionale di archiviazione, il CMS architettura divenne intorno a due motori di elaborazione:

Un per il recupero di elementi di contenuto da un repository e li ha assemblati in HTML componenti, in un punto chiamato content delivery applicazione; e un Altro che ha consentito agli amministratori ed editor per creare i componenti di base o i loro prototipi, così come a creare gli stili che questi componenti potrebbero seguire, chiamato l’applicazione di gestione del contenuto.

Modelli di architettura monolitica

Il primo vero e proprio CMS, sistemi automatizzati la generazione di pagine Web, basato su elementi del repository che venivano continuamente aggiornato, sostituito e modificato. I “portali” per tali sistemi, per esempio, Vignetta — sono stati installati sui Pc delle persone incaricate di dare agli utenti e agli amministratori. Come risultato, quando l’intero sistema è lento o anemici, i suoi utenti sono stati i primi a soffrire, e la fissazione di tali disturbi richiesto agli utenti di trattare direttamente con il reparto IT, si tenevano per mano sessioni dove non è mai stato chiarito, la cui mano era leader la cui.

Inoltre: Cloud computing: le Cinque principali tendenze di affari da guardare fuori per

In retrospect, l’architettura di questi sistemi CMS, così come i “sistemi di gestione della conoscenza” che ha ispirato, è stato chiamato monolitico. Quando un’applicazione si trova interamente su di un PC, i suoi sviluppatori possono garantire che tutti i pezzi si incastrano correttamente prima che l’applicazione è distribuita. In un sistema di rete, il repository è dietro un server, e tra il server e i suoi clienti, si incontra un sacco di middleware. Quindi i pezzi non sempre si adatta molto bene.

Con qualsiasi applicazione monolitica, l’innovazione avviene in molto altamente progettato, coordinato passi. Un esempio di un ben coordinato piano di prodotto è Kentico, un CMS per il marketing e e-commerce. Avendo emersi per la prima volta sulla scena nel 2004, Kentico presto adottato e mantenuto una major release cadenza di circa una versione all’anno. Questo è stato per Kentico grande credito, in quanto la sua base di clienti percepito questo come emblematico di un sistema di continuità. Come un blogger ha scritto a fine 2017, “Ogni nuova versione è la pena di parlare. Posso dire che non solo perché io sono un Kentico appassionato, ma in realtà perché ogni major release di Kentico tende ad aggiungere qualcosa che la comunità è esigente.”

La storia della strategia di rilascio

Nell’era dell’architettura client/server, i tempi di release importanti era diventata una forma d’arte a sé stante. Come veterano analista di Kurt Bittner e consulente Ian Spence consigliato nel 2006 per il libro di Gestione Iterativo Progetti di Sviluppo Software, lo sviluppatore di un’applicazione dovrebbe fare una mappa del suo rilascio cadenza nelle prime fasi della sua attività di pianificazione, tra le altre ragioni per ridurre al minimo il rischio diffondendo evoluzione nel tempo. Bittner e Spence, ha scritto:

Il numero di evoluzioni (major release) necessari di solito è dettata da preoccupazioni di affari, il bilanciamento, il tasso al quale l’azienda può assorbire nuove funzionalità rispetto alla necessità di nuove funzionalità. . . Ogni major release fornisce un chiaro punto finale verso la quale si lavora tutti, uno che spesso viene a mancare se lo sviluppo è previsto come un indifferenziato serie di continue iterazioni.

Se i rilasci sono previste troppo spesso, hanno avvertito, gli sviluppatori potrebbero correre il rischio di introdurre nuovi overhead così presto che gli utenti non sarebbero in grado di apprezzare il valore di queste caratteristiche aggiunte per la loro organizzazione. La pianificazione del rilascio, in questo periodo storico, è stato accuratamente calcolato affare, dal momento che era chiaro a quasi tutti che i motori di queste applicazioni — come è certamente il caso di un CMS — sono l’anima dei loro commerci.

I rischi economici di eventuali tempi di inattività, e le certezze di continuità problemi, sono troppo grande per qualsiasi organizzazione, si impegnano a meno che e fino a quando il valore potenziale di prossima caratteristiche-per quanto si può avere atteso nelle ali — supera di loro. (Ricorda che ti dico, a volte, di quanti anni di un editore aspettato fino a quando non sentiva abbastanza sicuro di passare a un nuovo sistema che gli ha permesso di scrivere in grassetto i suoi primi paragrafi.) Questo è il motivo per cui Spence e Bittner ha avvertito che la programmazione di cicli di rilascio dovrebbe essere attentamente programmata per le esigenze del business.

Inoltre: che Cosa è DevOps? Un esecutivo a guida

Ciò che questi autori non si creda, tuttavia, era che ogni istanza di un CMS potrebbe essere sintonizzati alle specifiche esigenze dei suoi clienti in esclusiva -, che non è come il mercato ha finito di lavorare.

Per una pletora di motivi, tra cui la vendita della sua società madre e una massiccia ridenominazione e rilancio del prodotto, il divario tra la Vignetta versione 7 versione 8 del suo successore prodotto, un Testo Aperto, è di circa sette anni. Ma durante quel tempo, un numero sorprendente di suoi clienti tenuto stretto-non felicemente con qualsiasi mezzo, e in alcuni casi, a quanto sembrava, sotto costrizione. Una volta che i grandi editori si erano impegnati a sette major release, qualcuno credeva che non c’era modo di adottare una piattaforma alternativa. Come questo 2011 Webinfermento storia intitolata “Il problema con il Back-end”, che narra, editori, abbandonando la loro marca CMS suite, costruzione di piattaforme, invece, intorno all’open source Drupal quadro. . . e la scoperta di successo.

In alcuni casi, lo sforzo di mantenere la stabilità vecchie Vignette istanze fatto il salto alla versione 8 di gran lunga troppo grande di un rischio. Come Governo la Tecnologia segnalato nel 2012, la Georgia Technology Autorità caratterizzato l’esodo come una “forza di adattamento.”

L’attacco dei senza testa ibrida

In questo periodo, l’aumento di architetture Web e l’insorgenza di HTML5 affrontato il monolite problema con l’introduzione del cosiddetto “Riposante”. Qui, i portali sono sostituite con browser-based di front-end che comunicano con i server back-end per mezzo di chiamate API. Potremmo spendere volumi su come questa metodologia alterato l’architettura front-end. Che cosa verrebbero a mancare è quello che è successo sul back-end: Il sistema non ha più bisogno di due (o più) dei motori di processo in ingresso da due (o più) categorie di utenti. Invece, l’autenticazione e servizi per i diritti possono convalidare, filtro, e instradare le chiamate API per il gestore appropriato. Cosa c’è di più, utilizzando un sofisticato reverse proxy, come NGINX, queste API chiamata gestori possono essere multiplexati e distribuito tra i nodi del server, consentendo il CMS di rispondere al meglio ai diversi carichi di lavoro.

Anche: Tre modi DevOps sarà più finemente sintonizzato nel 2019

Un nuovo ed intrigante CMS architettura si alzò a questo punto. Chiamato “senza testa” (abbastanza rischioso moniker, se mi chiedete) ha eliminato il portale del tutto, presentando al suo posto un unico motore che non ha interfaccia standard tra sé e per i suoi programmi di controllo. Questo dovrebbe liberare gli sviluppatori di costruire qualsiasi tipo di front-end di cui hanno bisogno, sul Web o altrove, e continuare lo sviluppo in pista per il loro front-end in modo indipendente di back-end. In questo modo, in teoria, caratteristiche hanno a che fare con la gestibilità e la produttività potrebbero essere attuate a un ritmo più veloce, senza tempi di attesa per la prossima major release del CMS’ repository, o ciò che di testa architetti chiamano il “content hub”.

151204-british-museum.jpg

All’interno del British Museum di Londra

Scott Fulton

Infine, il cloud-modello originario emerge

Ancora in movimento per un headless modello non è una transizione senza soluzione di continuità, ma un esodo. Dal momento che abbiamo stabilito che il prossimo salto evolutivo è più una piuttosto grande golfo comunque, le organizzazioni stanno mettendo in discussione il valore relativo di spostare il loro CMS esistente metodi e attività in un headless modello e messa in scena che modello su una piattaforma cloud, rispetto a riscrivere completamente il loro modello di utilizzo di un cloud-nativo quadro.

L’ultimo percorso vorresti dare alle aziende la libertà di sperimentare con serverlessness, il quale sembra allineare attentamente con acefalia. E l’adozione di microservices, le organizzazioni potrebbero anche andare avanti con un altro concetto che è stato guadagnando trazione significativo: continuous integration e continuous delivery (CI/CD). In tali sistemi, organizzazioni, ha fissato il loro rilascio cadenze da 2500 volte più veloce (sì, quelli sono gli zeri, non una % marchio che è stato frainteso) di imprese in seguito alla classica Bittner e Spence metodologia, con notevoli miglioramenti in termini di produttività, redditività, e anche il piacere nel loro lavoro.

In uno sforzo per affrontare le questioni emergenti, nuove aziende, tra cui Contentful stanno producendo ciò che essi descrivono come “moduli componibili” — componenti che possono essere assemblati come la costruzione di una piattaforma cloud. Pensate a questi moduli pre-miscelati, pre-misurata ingredienti per un’organizzazione di creare il proprio cloud-nativo CMS — o meglio, di un sistema per la gestione delle sue pubblicazioni, che sostituisce il CMS come noi la conosciamo.

Recentemente pubblicati caso di studio [PDF] viene descritto come Il British Museum assunto una società di sviluppo software per assemblare Contentful moduli in un’unica entità che tutti del Museo di pubblicazione divisioni potrebbe utilizzare, ognuna a suo modo-come se ogni braccio, tra cui webcast e di stampa, aveva il suo CMS. Il Contentful sistema indica la strada verso un nuovo metodo di montaggio ed evoluzione di applicazioni, basata in gran parte sulle esigenze degli utenti, al momento, e implementato in un espediente moda, piuttosto che una cauta.

Inoltre: Sei passi per DevOps successo, analizzato

Esplorare

Questo è come il cloud-applicazione nativa modello sta cambiando la discussione, e ha cominciato a cambiare data center:

L’automazione della distribuzione di componenti e caratteristiche, non importa quanto banale o come ampio possono essere, elimina i fattori di rischio tradizionalmente coinvolti nell’attuazione aggiornamenti di versione.Con questi rischi non è più nella foto, le organizzazioni sono libere di pensare in avanti — di prendere in carico di ciò che essi vogliono che i loro sistemi di gestione delle informazioni e il desiderio che si sarebbero comportati.Ora, le aziende possono permettersi di noleggio di piccoli team di sviluppatori di apportare contributi e modifiche a progetti di grandi dimensioni, dando loro tutti i vantaggi di “rolling proprie” applicazioni suites senza investire in un completo di reinventare la ruota ogni volta.Con una piattaforma cloud esteso in locali pubblici e privati, le organizzazioni hanno la libertà di leasing o di propria o di un proprio data center le risorse che può gestire il tempo, e di estendere il loro intero ambiente di applicazioni su entrambi altipiani.Sì, sì, le organizzazioni possono provare serverless, microservices, e questi meravigliosi nuovi concetti che hanno fatto Netflix organizzazione dinamica che è diventato. Ma il cloud è già un paesaggio alieno per la maggior parte delle imprese, e concetti come quelli di microservices può anche essere un altro mondo intelligenze parlare lingue sconosciute. In teoria, tubazione di mandata del modello introdotto da CI/CD può dare a queste imprese l’ampia cuccetta hanno bisogno di provare nuove cose al proprio ritmo, scorrere rapidamente, ma in piccoli morsi.

Storie correlate:

La battaglia tra il bordo e il cloud
Qual è il miglior cloud storage per te?
Top fornitori di cloud 2018: Come AWS, Microsoft, Google, IBM, Oracle, Alibaba stack upEverything hai bisogno di sapere su cloud, ha spiegato

Scopri di più — Dalla CBS Interactive Network

Perché contenitore orchestrazione è fondamentale per il cloud-app native (TechRepublic)
CNAB: finestra Mobile e Microsoft Cloud di Applicazioni Native Bundle
8 passi per diventare un ‘cloud-native’ enterprise

Altrove

7 Promesse, e i Potenziali rischi, l’Adozione di un Cloud Nativo Approccio DevOps da Scott M. Fulton, III, Il Nuovo Stack
Facendo DevOps Cloud in Modo Nativo da Scott M. Fulton, III, Il Nuovo Stack
Microservices intervento: Sostituzione della CMS Monolite da Scott M. Fulton, III, CMSWire

Argomenti Correlati:

La Leadership Di Pensiero

La Trasformazione Digitale

Centri Dati

CXO

L’innovazione

Archiviazione

0