Hur ” molnet-native-program håller på att förändra DET, och varför det tog så lång tid

0
119

Noll

För en större ansökan såsom en industriell kontroll system (ICS), ett content management system (CMS), eller ett sjukhus management system (HMS) “molnet-native,” hela sin livscykel måste finnas på en cloud-plattformen. Det är utvecklat i eller monteras ihop det, det är iscensatt och testade det, det är utplacerade där, felsöks det, och uppdateras kontinuerligt det. Det är inte “installerat” på en server i ett datacenter som någon form av permanent uppehållstillstånd. Och det är inte omvandlas till en virtuell maskin bild bara för att göra det bärbar över servrar. Den är utformad för molnet, som inte bara uppdrag grundläggande förändringar av dess arkitektur, utan av hela DEN ekonomi som stödjer det.

Även: IT-jobb: att ta Itu med den hotande digital kompetens lucka

På ett sätt, utvecklingen av server-side-program är att återgå till den kurs det hade tagit innan PC-eran, när x86-processorer drivit stordatorer och minidatorer av data center. En cloud-native ansökan är gjord för de system som värd det, i stället för att omvandlas eller iscensatt i en virtuell miljö som döljer den typ av moln från det.

Avkastningen av time-sharing

“På vår nuvarande systemet ca 35 användare kan få bra samtidiga tjänst, var och en med illusionen att han har full kontroll av maskinen. Varje användare sitter på en teletype skrivmaskin, typer ut sitt program, och håller in korrigeringar tills hans program slutligen fungerar. Detta gör det både lätt och behaglig att använda datorn.”

-John G. Kemeny och Thomas E. Kurtz
Den Dartmouth Time-sharing Computing System, April 1967

Sedan början av datorer, mjukvara har blivit formad för de maskiner som utsetts att köra det. Det borde inte överraska någon. Dartmouth John Kemeny och Thomas Kurtz i huvudsak uppfann modern design och genom att utarbeta ett språk avsett för att klara trial-and-error-programmering: GRUNDLÄGGANDE. Den första äkta cloud computing-plattformar, och den mest framgångsrika sådana plattformar idag, är direkta ättlingar av deras arbete. Principen var att de program som kan göra den bästa användningen av den maskin de kör på, bör vårdas och utvecklas inom dessa maskiner, snarare än hashas ut i förväg, på papper och sammanställas för sig.

the-triumph-of-virtue-and-nobility-over-ignorance-by-tiepolo.jpg

“Triumf för Dygd och Adeln över Okunnighet” av Giovanni Tiepolo, ca. 1745. Från Norton Simon Museum.

Tillgänglig via Creative Commons CC0 1.0

Plattformar som tjänst

“Cloud-infödda” computing är samma princip, till att omfatta plattformar moln. Om vi skall vara ärliga (nu skulle vara en bra tid) då vi bör erkänna att “molnet” är en enda maskin, minst ur perspektivet av de applikationer som körs där. Det är egentligen inte en dimma eller andra-världsliga miljö, men ett kluster av processorer kopplat via höghastighetsnät som bara händer span planeten. De språk som är framtagen för tekniska cloud-native applikationer på denna stora klass av maskinen, är direkta ättlingar till Dartmouth är GRUNDLÄGGANDE.

Även: Använda molnet som en plattform för digital transformation

Först och främst, moln födelsekyrkan gör frågan om när en organisation väljer att vara värd för dess tillämpningar, en ständigt öppen fråga. Cloud-applikationer plattformar är utformade för portabilitet. Den molnbaserade infrastrukturen kan i dag ofta med ett program plattform som Cloud Foundry (stewarded av Pivotal), Apprenda, eller Red Hat OpenShift.

Snart själva frasen “moln-infödda” kan falla i glömska, som taggen på 1990-talet och början av 2000-talet TV-program att läsa”, Filmad i high definition!”

Att göra känsla av alla abstraktioner

Sedan tillkomsten av C++ och hög nivå programmeringsspråk, konstruktion av programvara blev skild från dess underliggande hårdvaran genom ett eller flera lager av abstraktion. Programmerare-nu känt som utvecklare — vanligtvis har aldrig haft att överväga optimering av hårdvara eller den infrastruktur som stöder den.

Också: Linux nu dominerar Azure

“Molnet” (vilket är alldeles för sent att byta namn) är en maskin, om än en som sträcker sig över planeten. Några av de allra första moln-tjänster, inklusive den ursprungliga “Windows Azure” back in 2008, etablerades som ett sätt att iscensätta nya programvara har utformats med avsikten av att köra det. Trots vad den ursprungliga branding underförstådda, programvara vars avsikt är att distribueras och inte centraliserad — med andra ord, för att kunna köras över internet i stället för en DATOR som agerar som en server — tar på sin egen design.

Docker Engine

Den Docker revolutionen 2013 aktiverad tre ideala situationer samtidigt:

Docker frikopplat ansökningar från de servrar som drev dem, genom att konstruera en vanlig klass av portabla program-baserade behållare.Det inrättades en self-service distribution mekanism som gjorde det möjligt för utvecklare att bokstavligen bygga lokalt, för att sedan agera globalt-för att iscensätta en distribuerad applikation på en enda maskin, sedan driva it till molnet på ett enkelt, automatiserat sätt.Det har för alltid ändrat arkitekturen av server-baserat program, skapa minst en typ av programmering, kanske mer, som var särskilt lämpade för användning i molnet: molnet-native applikation.

Är detta samma “molnet” vi har pratat om innan?

Innan vi går vidare med denna fras, låt oss lösa frågan om vad vi tror att “molnet” är idag. Vi som täcker teknik för en levande har en tendens att dra en hård gräns mellan företagets datacenter och leverantörer av molntjänster, som betecknar vad en organisation kan äga och driva om sig själv som “här” och molnet “över det.”

Detta är inte vad molnet begreppet egentligen innebär, eller har någonsin verkligen tänkt. Din organisation kan vara kan vara värd sin egen cloud-native applikationer, om den äger eller även hyr-servrar som kör dem, på premisser som det antingen äger eller hyr en colocation leverantören som Equinix eller Digital Realty. Vad vi har efterlyst “hybrid cloud”, som om det var en konstig men lönsamt alternativ, är nu en plattform vars tjänster kan vara en del ägda och leasade från en tjänsteleverantör såsom Amazon, Microsoft, Google eller IBM, oavsett var dessa tjänster finns.

Också: utvecklare hålla nå för molnet

Låt oss försöka att sätta detta på ett annat sätt, i termer som saknar mening från början, innan någon omdefinierar dem att betyda något annat: Ett moln kan vara en kombination av resurser, som ligger var som helst på Jorden, vars nätverksanslutningen gör det möjligt för dem att fungera i konserten som en enda församling av servrar. En organisation kan äga och driva sina egna moln i sin helhet, även om det normalt inte. Kommersiella cloud service providers (de tre största är Amazon AWS, Microsoft Azure, Google) erbjuder en organisation och de resurser som den behöver för att iscensätta någon eller alla dess tillämpningar i det utrymme som vi nu kallar public cloud. Vissa företag inte äger eller driver någon av sina egna it-resurser, väljer i stället att hyra dessa medel från allmänna leverantörer av molntjänster helt och hållet.

Så när vi säger att en ansökan är “native” för att denna typ av moln, vad vi menar är att det inte bara var konstruerade för utplacering det, men att det är portabel under någon del av det utrymme som detta moln omfattar. Molnet stygn samman flera mellanstationer områden för program och sina resurser, inklusive databaser, i ett enda landskap. Molnet-native ansökan uppfattar detta landskap som sin egen. Ännu viktigare, det behöver inte gräva djupare i infrastruktur av servrar och datacenter där delar av detta landskap som värd.

Hur hem för en cloud-ursprungliga programmet är konstruerat

Säg till exempel att ett företag hanterar en VMware vSphere miljö. Ursprungligen vSphere var avsedd att vara värd för virtuella maskiner (VMs) som beter sig som fysiska servrar, men återges som programvara. Nu, med hjälp av en förlängning produkt som heter vSphere Cloud Foundation, det kan också vara värd för och hantera de nya typer av containrar program, som är mycket mer portabel och som finns utanför av VMs.

180827-vmworld-2018-day-1-15-pat-gelsinger.jpg

VMware VD Pat Gelsinger förklarar VMware Avgörande Container Service till deltagare i VMworld 2018 i Las Vegas.

Scott Fulton

Som VMware meddelade i November förra året, sådana containrar applikationer kommer att kunna göra användningen av resurser, såsom datorkraft, lagring och tjänster databas från Amazon AWS. VMware gjorde en liknande pakt med Google Cloud föregående år. Som en följd av en organisations hybrid cloud kan bestå av resurser samlats in från allmänheten leverantör och sina egna datacenter. VSphere uppfattar dessa resurser som en enda plats där du kan hantera program.

Också: 8 steg till att bli ett ” moln-eget företag

Så ett program som är utformat för en sådan miljö, och kanske inom denna miljö, skulle vara “cloud-infödda.” I motsats till en server-baserad applikation skriven för en fristående Windows Server-eller Linux-miljö, moln-ursprunglig version skulle kunna distribution någonstans i detta utrymme som helst.

Denna typ av arrangemang är inte exklusiva för vSphere. Om en organisation och en hade sin egen Internationaliserad moln på lokaler, det kan integrera sin egen privata medel för att i viss grad med AWS, Microsoft Azure, eller Google Cloud. (Om den gör det med enkelhet är en fråga om öppen debatt, men det är åtminstone öppen.) En organisation med Microsofts Azure Stack kan bygga och driftsätta applikationer med hjälp av Visual Studio (eller dess enastående öppen källkod motsvarighet, VS-Kod) på sina egna servrar i sina egna datacenter, och integrera dessa resurser med de som finns tillgängliga från den offentliga Azure-moln som behövs.

Och baserat på den information vi har på sidan idag, anser vi att ett företag som prenumererar till AWS Utposter bör vara kapabel att bygga ett program inriktade på Amazon EC2, och distribuera den till AWS servrar som ligger på kundernas lokaler. Detta kommer att vara en cloud-ursprungliga programmet, men inte nödvändigtvis i den offentliga moln, såvida inte och tills kunden flyttar det där, eller en del av det där, avsiktligt.

Varför cloud födelsekyrkan plötsligt frågor nu

Att jämföra native applikationer för migrerande program

De flesta server-side-program som någonsin producerats (dvs, inte appar som körs på en DATOR eller en telefon, som är “client-side”) var tänkt att köras på en vanlig maskin — och en låda med en processor, ett eget minne, några lokala lagring, och ett PC-operativsystem. När den äldre klass av programvara som körs i molnet, en virtuell maskin (VM) är skapade för det, vilket i sig är en typ av program. Ett VM som utger sig för att vara en konventionell maskin för den skull av ansökan, som ofta inte vet skillnaden. Men VM är portabel och lätt att hantera. Bör det blivit skadad, ett exempel på det kan vara klonade från en tidigare bild och ta dess plats (“instansieras”).

Dessutom: Varför native appar är det faktiskt inte dömd, för nu TechRepublic

En cloud-native ansökan behöver inte låtsas. Om det körs i en VM, som många gör, då det kan bli medvetna om den plattform som kör det, vilket ger mer kontroll över det sätt på vilket det hanteras och distribueras genom ett nätverk.

Detta ger upphov till två skolor av tanke, båda är lika giltiga lokaler för cloud-native metoder:

Äntligen, kan programmet vara mycket medveten om sin omgivning. Som gäst i en virtuell maskin, för att en ansökan aldrig riktigt vet detaljer om den sanna naturen av den infrastruktur som stöder den. Som ett resultat, kan den inte lära sig att förbättra sina egna prestationer. Nu, i form av komponenter fungerar som fjärrkontroll agenter i containrar (ett framträdande exempel är NGINX Plus) en komponent i ett program som körs kan få leva uppgifter om vissa aspekter, några av dem visserligen esoteriska, dess konfiguration och prestanda. Med dessa data, åtminstone teoretiskt, ansökan kunna fatta vissa beslut om dess konfiguration och distribution, iscensätta några av sina egna funktioner och på så sätt utvecklas själv för att passa förändrade syften och situationer.På sista ansökan behöver inte veta ett dugg om miljön. Det är en mer högljudda skola under de senaste månaderna som svartabörshajar fördelar för utvecklare att bygga sina program samtidigt som du enbart inriktad på behoven av programmet och intressen av dess användare, samtidigt som förvaltningen av de underliggande hårdvara för miljön, och distribution av programvaran till orchestrator (oftast dessa dagar, Kubernetes). Dessa är de som förespråkar så kallade serverlösa arkitektur. Den första time-sharing-system, säger de, som tas ut information om att datorn fungerar från funktioner i programmet, och som abstraktion kan vara lika giltiga och nödvändiga idag.

Behöver du microservices att vara helt moln-infödda?

Idag, den senare skola är i särklass den mest högljudda, men dess grundläggande filosofi har ännu noggrant gel. I hjärtat av serverlösa värdeerbjudande är det budskap som abstraktioner gratis utvecklare att tänka och arbeta helt i sfären av de problem som de försöker lösa. Detta går emot den uppfattningen att en organisations IT-infrastruktur är i centrum för sin verksamhet, och sätter takten för dess affärsmodell. Inte längre är det “strategiska inriktning” mellan verksamhet och teknik vingar av organisering som krävs.

Också: 8 sätt att se till att du verkligen behöver microservices

Men från det, förespråkar går ut på att argumentera till förmån för nedbrytning av monolitisk program till förmån för en microservices-modell, där de enskilda komponenterna smälter samman mot gemensamma mål. Ange vilka de gemensamma målen är, kräver exakt den typ av strategiska inriktning som serverlösa förespråkare säger att de undfly, så att intressenter kan få tillsammans på samma sida.

Vissa förespråkare har också gått till protokollet att stödja ett koncept de kallar “cloud-native DevOps,” som skulle anpassa DevOps (utvecklare + verksamheten proffs) rörelse med flytten mot både serverlösa och microservices arkitekturer. Det största problemet med den här idén är avsaknaden av några som helst belägg för att Ops del av denna rörelse har skrivit på denna idé. Om utvecklare, som serverlösa förespråkar beskrev dem, “frigjort” att arbeta med sina egna idéer och på sin egen tidtabeller, då en sådan uppdelning skulle gå mot begreppet koalition med Ops, vars ansvar inkluderar att ställa in tidtabeller, och att se till att utvecklarna är medvetna om sin infrastruktur.

Utvecklingen mot cloud-infödda i den verkliga världen

Låt oss sluta prata om alla dessa saker i det abstrakta, och ta en mer praktisk titt på vad detta faktiskt innebär, i samband med historien av en av de vanligaste klasserna av server-side-program:

Ett content management system (CMS) är en ganska avancerad databashanterare förklädd, åtminstone delvis, som en ordbehandlare. Ursprungligen lagras och återges webbsidor som statiska dokument. Men som konsumenterna behövde Webben att bli mer funktionell än arkivering, CMS arkitektur blev centrerad runt två bearbetning motorer:

En som läst delar av innehållet från ett arkiv och samlade dem i HTML-komponenter, på en punkt som kallas för leverans av innehåll ansökan,och en Annan som möjligt för administratörer och redaktörer att skapa de centrala delarna eller deras prototyper, samt skapa de stilar som dessa komponenter skulle följa, som kallas content management program.

Modeller av monolitisk arkitektur

Den första äkta CMS-system automatiserad generering av webbsidor, som bygger på element i förrådet som var som uppdateras kontinuerligt, bytas ut och ändras. “Portaler” för sådana system — till exempel, Vignette-var installerade på de Datorer för människor i uppdrag att såsom användare och administratörer. Som ett resultat, när systemet som helhet var trög eller blodbrist, dess användare var de första att lida och fastställande av dessa sjukdomar som krävs för användare att handla direkt med IT-avdelningen, i hand-hålla sessioner där det var aldrig klar, vars hand var ledande vars.

Också: Cloud computing: Fem viktigaste trenderna att hålla utkik efter

I efterhand, arkitektur, vissa av dessa första CMS-system, såväl som “knowledge management system” de inspirerade, har kallats monolitisk. När en ansökan är bosatt helt och hållet på en PC, dess utvecklare kan garantera att alla delar passar ihop ordentligt innan ansökan distribueras. I ett system i ett nätverk, arkivet är bakom en server, och-mellan servern och dess kunder, möter en hel del av middleware. Så de bitar som inte alltid passar mycket bra.

Med någon monolitisk ansökan, innovation sker i mycket planerat, samordnat steg. Ett exempel på en väl samordnad produkt planen är Kentico, ett CMS för marknadsföring och e-handel. Att ha första som dök upp på scen under 2004, Kentico antog snart och underhålls en större utgåva kadens om en version per år. Detta har varit att Kentico är stor kredit, som sin kundbas uppfattade detta som ett uttryck för systemets kontinuitet. Som en bloggare skrev i slutet av 2017, “Varje ny release är värt att tala om. Jag kan säga att det inte är bara för att jag är en Kentico entusiast, men egentligen eftersom varje större release av Kentico tenderar att lägga till något som samhället kräver.”

Historien om release strategi

I en tid präglad av klient/server-arkitektur, tidpunkten för stora utsläpp hade blivit en konstform i sig själv. Som veteran analytiker Kurt Bittner och konsulten Ian Spence rådde under 2006 för sin bok att Hantera Iterativ mjukvaruutveckling Projekt, utvecklare av ett program som ska staka ut dess release kadens i ett tidigt skede av sin verksamhet för planering, bland annat i syfte att minimera risken genom att sprida ut utvecklingen över tid. Bittner och Spence skrev:

Antalet utveckling (stora utsläpp) som krävs är oftast dikteras av oro, att balansera den takt som verksamheten kan ta emot nya resurser mot behovet av ny kapacitet. . . Varje större release ger en tydlig slutpunkt mot som alla arbetar för, något som ofta saknas om utveckling är planerad som en odifferentierad serie av pågående iterationer.

Om utsläppen är planerade för ofta, de varnade för, utvecklare kan löpa risk att införa så mycket nya overhead så snart som användarna inte skulle kunna uppskatta värdet av dessa funktioner läggs till i sina egna organisationer. Släpp planering, vid denna tid i historien, var ett fint beräknas affär, eftersom det var tydligt att de flesta alla som motorer för dessa applikationer-så är verkligen fallet med ett CMS-är kärnan i deras företag.

De ekonomiska riskerna för eventuella driftstopp, och självklarheter av kontinuitet frågor är för stora för en organisation att göra, såvida inte och tills det potentiella värdet av kommande funktioner — hur länge de har väntat i kulisserna — överväger dem. (Påminn mig att berätta någon gång om hur många år en utgivare väntade tills det kändes säker nog för att göra övergången till ett nytt system som gör det möjligt att med fetstil sin första punkterna.) Det är därför Spence och Bittner varnade för att den planering av release-cykler bör vara noggrant tidsinställda till verksamhetens behov.

Också: Vad är DevOps? En verkställande guide

Vad dessa författare antas, dock, var att varje instans av ett CMS kan anpassas till de unika behoven av dess exklusiva kund-vilket inte hur marknaden slutade upp att arbeta.

För en uppsjö av skäl, inklusive en försäljning av dess moderbolag och en massiv döpa om och nystarten av produkten, klyftan mellan Vinjett version 7 och version 8 av dess efterföljare produkt, Open Text, var ungefär sju år. Men under den tiden, ett överraskande stort antal av sina kunder hålls tätt-inte lyckligt på något sätt, och i vissa fall verkade det under tvång. När de stora förlagen hade åtagit sig att så många som sju utgåvor, trodde några att det inte fanns något sätt att anta en alternativ plattform. Så detta 2011 AdWeek berättelse med titeln “problemet med Back-Ends” krönika, publishers var att överge sitt varumärke-namnet CMS sviter, bygga sina egna plattformar i stället runt open source Drupal ram. . . och upptäcka framgång.

I vissa fall, för att bibehålla stabiliteten äldre Vinjett fall gjort hoppa till version 8 för alltför stor risk. Som Regeringen Teknik rapporterade under 2012, Georgia Teknik Myndighet kännetecknas av den utvandring som en “kraft passform.”

Attack av den huvudlösa hybrid

Ungefär vid den här tiden, ökningen av Web arkitektur och uppkomsten av HTML5 upp monolith problemet med införandet av så kallade “God design”. Här, portaler är ersatt med browser-baserade front slutar att kommunicera med servrar på baksidan med hjälp av API-anrop. Vi kunde tillbringa en del om hur denna metod ändras front-end arkitektur. Vad vi missar är vad som hände på den bakre änden: systemet inte längre behövs två (eller fler) motorer indata från två (eller flera) klasser av användare. Istället, autentisering och rättigheter tjänster kan validera, filter, och vägen API-anrop för att lämpliga föraren. Vad är mer, med hjälp av en sofistikerad omvänd proxy som NGINX, dessa API-anrop som hanterar kan vara multiplexade och fördelas på servern noder, vilket gör CMS för att bättre svara mot olika arbetsbelastning.

Dessutom: Tre sätt DevOps kommer att vara mer finstämda 2019

En ny och spännande CMS arkitektur uppstod vid denna punkt. Kallas “huvudlösa design” (ett ganska riskfyllt moniker, om du frågar mig) det elimineras portal helt och hållet, där det i dess ställe en enda motor som inte har någon standard för gränssnittet mellan sig själv och sin kontroll program. Detta skulle gratis för utvecklare att bygga någon form av front de behövde, via Webben eller någon annanstans, och fortsätta utvecklingen spår för sin front end oberoende av den bakre änden. På detta sätt, sålunda, funktioner som har att göra med hanterbarhet och produktiviteten kan genomföras i en snabbare takt, utan att vänta till nästa större version av CMS ” arkivet, eller vad huvudlösa arkitekter kallar “content-nav.”

151204-british-museum.jpg

Inne i British Museum i London

Scott Fulton

Slutligen, moln-native-modellen framträder

Men att flytta till en huvudlös modell är inte en sömlös övergång, men en utvandring. Eftersom vi har konstaterat att nästa evolutionära steg framåt är över en ganska stor klyfta hur som helst, organisationer ifrågasätter det relativa värdet av att flytta sina befintliga CMS metoder och tillgångar till en huvudlös modell och iscensättning som modell på en cloud-plattformen, jämfört med att helt skriva om sin modell med hjälp av ett moln-native ram.

Den senare vägen skulle ge organisationer frihet att experimentera med serverlessness, som skulle visas för att anpassa noga med headlessness. Och genom att anta microservices, organisationer kan också gå vidare med annat begrepp som har vunnit betydande dragkraft: continuous integration och continuous delivery (CL/CD). Under sådana system och organisationer har tidsinställda släpp och kadenser att vara så mycket som för 2 500 gånger snabbare (ja, de är nollor, inte en procent som var misstolkas) än företag med efter den klassiska Bittner och Spence metodik, med påtagliga förbättringar i produktivitet, lönsamhet, och även nöje i deras arbete.

I ett försök att ta itu med dessa nya frågor, nya företag, inklusive Contentful är att producera vad de beskriver som “kombinerbar moduler” — komponenter som kan monteras som bygger på en plattform. Tänk på dessa moduler som pre-mixed, pre-uppmätta ingredienser för en organisation att bygga upp sina egna moln-eget CMS-eller snarare, ett system för att hantera sina publikationer som ersätter de CMS som vi känner det.

En nyligen publicerad fall-studie [PDF] beskriver hur British Museum anställt en utveckling av mjukvara företaget att montera Contentful moduler till en enda enhet att alla Museets förlag divisioner kan använda, var och en på sitt sätt-som om varje arm, inklusive webbsändningar och skriva ut, hade sitt eget CMS. Den Contentful systemet visar vägen mot en ny metod för montering och utvecklas program, huvudsakligen baserade på behoven hos användarna på den tiden, och genomförs på ett ändamålsenligt mode snarare än en försiktig sådan.

Också: Sex steg till DevOps framgång, analyseras

Reconnoiter

Detta är hur moln-native applikation modell är att ändra diskussion, och har börjat att ändra data center:

Automatisera distribution av funktioner och komponenter, oavsett hur triviala eller hur omfattande de än må vara, eliminerar riskfaktorer som traditionellt deltar i genomförandet version uppdateringar.Med dessa risker inte längre med i bilden, organisationer är fria att tänka framåt-att ta ansvar för vad de vill att deras information management system och önskar att de skulle bete sig.Nu kan organisationer har råd att anställa små grupper av utvecklare för att få bidrag och ändringar till stora projekt, att ge dem alla förmåner i “rullar sina egna” program suites utan att investera i en komplett uppfinna hjulet varje gång.Med cloud-plattformen utvidgas både inom den offentliga och privata lokaler, organisationer har frihet att hyra eller äga så mycket eller så lite av deras egna datacenter tillgångar som de kan hantera på den tiden, och att förlänga hela deras program miljön över både platåer.Ja, ja, organisationer kan prova serverlösa, microservices, och dessa underbara nya koncept som gjorde Netflix dynamisk organisation har det blivit. Men molnet i sig är redan en främmande landskapet för de flesta företag, och sådana begrepp som microservices kan lika gärna vara andra-världsliga intelligenser tala okända språk. Sålunda, leverans pipeline modell som införts av CI/CD kan ge dessa företag en bred kaj som de behöver för att pröva nya saker i sin egen takt, gå snabbt, men i små tuggor.

Relaterade artiklar:

Striden mellan kanten och molnet
Vad är det bästa moln lagring för dig?
Toppen moln leverantörer 2018: Hur AWS, Microsoft, Google, IBM, Oracle, Alibaba stack upEverything du behöver veta om cloud, förklarade

Läs mer-Från CBS Interactive Nätverk

Varför behållare orkestrering är kritisk till cloud-native-apps (TechRepublic)
CNAB: Docker och Microsofts Moln Native Ansökan Bunt
8 steg till att bli ett ” moln-eget företag

Någon annanstans

7 Löften och Fallgropar i att Anta ett Moln Ursprunglig Inställning till DevOps av Scott M. Fulton, III, Den Nya Stack
Gör DevOps Molnet Native Sätt av Scott M. Fulton, III, Den Nya Stack
Microservices Göra Inbrytningar: Byta CMS Monolit av Scott M. Fulton, III, CMSWire

Relaterade Ämnen:

Trodde Ledarskap

Digital Omvandling

Datacenter

CXO

Innovation

Förvaring

0