Drive-thru data center: Hvis et apparat kører din lokale cloud

0
114

Nul

scale-003-fig-01.jpg

Det tog 37 dage for det norske selskab indgået kontrakt om at bygge fiberoptiske forbindelse til Brasilien for bare at bære det optiske kabel til projektet fra det Atlantiske Ocean, ned ad Amazon-Floden, at byen Manaus.

Tilslutning til denne byens to millioner plus indbyggere, der har aldrig været en sikkerhed. For 2014, cloud-tjenester analytiker CloudHarmony rangeret Sydamerika som kontinent med den største tjeneste ventetid langt i enhver region i verden, og det følgende år, er det vurderet Brasilien som verdens mindst pålidelige region for Amazon AWS service.

Ved nu, er folk i Manaus er træt af at “Amazon” ordspil. I mellemtiden, de indtager fastfood, ligesom resten af verden. Så for dem, er en større restaurant-kæden har rearchitected sin order management-systemet som en enkelt enhed. Det er et strålende eksempel på en real-time distribueret applikation.

Når restauranten er marketing team beslutter at det er tid til en ny kampagne, det kan udføre sin plan på minutter i stedet for måneder. Ikke kun priserne ændres umiddelbart efter udførelse, men menuskærmene over for tællere og at the drive-thrus er alle opdaterede. Fra dette punkt, bestilling tendenser er målt i real-tid, og effektiviteten af en kampagne, kan rapporteres til ledelsen ved slutningen af arbejdsdagen. Artificial intelligence algoritmer kan indsættes i den produktionskæde, til at planlægge pris ændringer i real-tid reaktion på faktorer som kundernes efterspørgsel, udendørs temperatur, og selv nyheder cyklus.

Det bør være indbegrebet af use case for cloud computing. Bortset fra det er ikke virkelig.

Drev Gennem

scale-001-fig-07.jpg

Vi er sammen Waypoint #3 i vores fire-del rejse i jagten på den nye kant for moderne datacentre. Det er et sted fjernet fra hvor som helst du ville forvente at være hovedsædet eller det centrale nervesystem i et moderne netværk. Ja, det er en node i et meget distribueret system. Men hver node har til sig selv, sin egen decentral myndighed og ansvar-en vis grad af kontrol.

“Vi ønsker at tilskynde til innovation; vi ønsker at tilskynde til at forstyrre. Og det er virkelig svært at skabe et økosystem, hvor hver løsning er designet til specifikke hardware, eller for en bestemt kunde.”

— Igal Elbaz, Vice President of Ecosystem & Innovation, AT&T

Og hver af disse knuder er en micro data center (µDC), der er gemt et eller andet sted bag pick-up vindue. Gå ind i baglokalet, ville du nemt tage fejl en af disse enheder til et køleskab. Det er en fuldt selvstændig, 24-unit rack-mount system med en indbygget power distribution unit. Dens design er Schneider Electric — blandt verdens førende producent af fysiske platforme og effekt systemer til data center komponenter, og moderselskab for backup power system producent APC.

Steven Carlini er Schneider Electric ‘ s øverste direktør for globale løsninger. Han opfatter en klar, løbende adskillelse af beføjelser i hele den infrastruktur, platform, som vi nu kalder “skyen,” med den offentlige sky i centrum, og som ejes eller co-beliggende regionale data centre langs periferien.

“En af de vigtigste drivkræfter i kanten computing er, at processen [data] lokalt, og sender resultaterne af beregninger i skyen,” Carlini fortalte ZDNet. Han fortsatte:

Langt, vi ser stadig levering af indhold som den vigtigste drivkraft for at komme tættere på kunden. Vi ser, industriel anvendelse, hvor det er enten proces kontrol, pipeline management, eller forvaltning af spildevand, eller landbrug, hvor vi laver en masse lokale behandling, og ved hjælp af resultaterne af, at behandlingen for at ændre flow eller temperatur af olie eller vand gennem rør, eller automatisere ventilerne til at åbne og lukke på bestemte tidspunkter. Der er en masse af data fra en masse sensorer i disse applikationer.

“Det er her, vi ser det. Vi ikke ser det i den generelle business-applikationer,” bemærkede han. “Vi kan ikke se vores kunder beder om det.”

Den Brasilianske restaurant gjort en betydelig up-front investering i at tilføre hver sine steder med, effektivt, med sin egen lokale cloud. Vi kan med rimelighed antage, at når en virksomhed påtager sig et projekt af denne størrelsesorden, er det ikke fordi det er mennesker, der ønsker en hurtigere kører Office 365. Der er særlige programmer, der kræver kritisk opmærksomhed, og selvom de har brug for netværk samt, der er ikke så kritisk, da hastigheden af implementering.

Også: Tåge computing: Afvejning af de bedste af lokal behandling med cloud

Men her er hvad der sker: efterhånden Som flere virksomheder investerer i køleskab mellemstore datacentre, hvor de tilfældigvis er, at omkostningerne ved at investeringer er faldende. Til gengæld break-even punkt, hvor prisen af cloud-udbydere, ” månedlige “as-a-Service” gebyrer fangster op med prisen for en µDC, kommer hurtigere og hurtigere.

171028-m01-scale-w3-fig-03.jpg

I bidrager til at gøre visse datacentre mere som apparater, Schneider Electric er også bevæger sig tættere på kunden. Her er, hvor “tilsyn” kommer i spil (og jeg valgte, at ordet for en række forskellige årsager): I et cloud-miljø, hvor arbejdsopgaver kan ende med at blive afholdt på lokaler, i µDCs, i hyperscale co-lo-faciliteter, eller i den bredere offentlighed skyen, vil det ikke kun blive kritisk at identificere, hvilken komponent der gør, at beslutsomhed, men hvor det er placeret. Det er klart, at det ikke giver meget mening for en orchestrator dybt i den offentlige sky til at bestemme, hvilke arbejdsmængder få hostet lokalt. Netværk ingeniører kalder denne type af back-og-tilbage samspillet mellem en “rundtur”, og de forsøger at undgå at bygge sådanne ture, som de bedst kan.

“Vi er nødt til at skabe allestedsnærværende. Det er virkelig vigtigt, at vi skelne mellem program og DET arbejdspres-og hvordan den hardware, der er specificeret for dem-fra netværk arbejdspres,” sagde Igal Elbaz, AT&T ‘ s vice president for økosystem og innovation, ved at tale med ZDNet. “Vi ønsker at bevæge os væk fra en verden, hvor du bygge noget specifikt til en bestemt kunde. Vi ønsker at tilskynde til innovation; vi ønsker at tilskynde til at forstyrre. Og det er virkelig svært at skabe et økosystem, hvor hver løsning er designet til specifikke hardware, eller for en bestemt kunde.”

Særlig feature: XaaS: Hvorfor ” alt ” er nu en service

Så i det mindste ud fra perspektivet om tilslutningsmuligheder udbyderen AT&T, det er i alles interesse, for på lang sigt, ikke at have specialisering i de stilarter og buildouts af data-centre, store og små. Det er ikke til at sige mikro-data-centre er dårlige ideer, ja, at AT&T er at spille en afgørende rolle i at hjælpe Damp IO og andre til at bygge µDCs på 5G forbindelse point. Men det kaster en stor skruenøgle ind i den teori, at µDCs er bare specialiserede køleskab bokse, der kan hjælpe kunderne i udfordrende områder, arbejde deres vej ud af en forbindelse med papirstop.

“Hele cloud slags økosystem kommer til at udvikle sig til et multi-differentieret data center tilgang, der kommer til at indeholde meget små, micro datacentre i meget nær fremtid.”

— Steven Carlini, Senior Director for Global datacenter Løsninger, Schneider Electric

Uundgåeligt, at dette spørgsmål vil blive rejst: Hvorfor kan man ikke bruge den samme løsning, der løses en fast food kæde er synkronicitet problemer i Brasilien opnå det samme mål for en anden sådan kæde i, sige, Kansas?

Schneider Electric ‘ s Carlini forklarer:

Kan du selv se i begyndelsen af næste år, er disse mikro-data-centre, der er en gentagelse cloud stakke — Azure Stak, og Google stak — der kommer til at være på-lokaler til kontorer og mindre sites. Så for Azure, eksempel kunne være, at Office 365. Vil du have et eksempel på, at on-lokaler, et eksempel i din co-lo data center, eller vil du have det i din cloud datacenter i udkanten af samfundet, og du kan eller ikke kan vide, hvor at 365 kører. De er ved at udvikle de algoritmer for, hvordan alle, der vil arbejde, og om det vil være gennemsigtig for brugeren, eller hvis brugeren vil være i stand til at vælge deres foretrukne sted for at køre disse programmer.

De sidste n-tier

Et edb-program, og har altid været, og vil altid være, en sekvens af instruktioner, der leveres til en processor til udførelse inden for et enkelt span hukommelse. En ansøgning er et bredere begreb end et program, og over tid, er kun blive bredere.

Denne spredning ud af ansøgningen ‘ s fodaftryk er gjort muligt ved en udvidelse af området for virtuelle netværk. Vi har talt lidt om distribuerede applikationer, men indtil nu er der ikke meget om, hvad der er at fordele det.

I dag, datacentre bruger cloud-platforme, som et middel til at håndtere flere forskellige instanser af den samme klasse af ressource — processor kapacitet, hukommelse-adresse plads, lagerkapacitet, eller netværk stof — som enkelt, sammenhængende pools. En sådan platform, som gør det muligt for en virtuel maskine (VM), der bruges til at blive henvist til en hypervisor, der kører på en enkelt processor, til at spænde over flere servere-eller, for at bruge den virtuelle infrastruktur sigt for dem, beregne knudepunkter. Så i en hyperscale data center, hver server er som en mursten i en (tilsyneladende) problemfri væggen. Cloud-platform, der ikke kun giver den mørtel, men “figurer” non-uniform servere på en sådan måde, at de passer ind i ordningen, uden at forstyrre illusionen af homogenitet.

171028-m01-scale-w3-fig-04.png

I VMware ‘ s seneste ordning for vSphere, hver server-node, der har et netværk virtualisering lag kaldes NSX. Hvor NSX løber, vSphere forvaltning eksempel kan opretholde ressourcer til det, og fase VMs på det. For et par måneder siden, VMware meddelte, at NSX vil blive understøttet på Amazon ‘ s public cloud infrastruktur. Som et resultat, vSphere kunder, der er også AWS abonnenter vil opfatte begge rum som en enkelt iscenesættelse platform for VMs. Hvad mere er, de applikationer, der kører på dem, VMs vil være i stand til at få adgang til AWS ressourcer, såsom S3 storage klodser og Rødforskydning database funktioner, gennem API-kald.

Microsoft ‘s konkurrencemæssige platform Azure Stak, som Schneider Electric’ s Carlini, der er nævnt tidligere: en udvidelse af de ressourcer, der er til rådighed på Azure offentlige cloud-platform, så at programmer kan opfatte Azure Stak plads og Azure plads som den samme pulje. Og på open source side, OpenStack er fortsat en stærk udfordrer til VMware ‘ s traditionelle rum, der giver et middel for virksomheden til at automatisere implementering og forvaltning af private og hybrid cloud-rum.

Også: Public cloud, private cloud, eller hybrid cloud: Hvad er forskellen?

Disse platforme, der tjener som equalizere — “lag af abstraktion” – servere, bliver samlet i klynger for distribueret computing. Selv i dag, at deres respektive tilhængere hævder, at de udvider sky problemfrit og ensartet på tværs af store spænd af forskellige hardware, der er tilsluttet via det samme netværk. Disse platforme udnytte deres egne IP-protokollen netværk overlays, så selv deres komponenter’ virtuelle steder er flyttet ud på tværs af det fysiske netværk, de bevarer deres adresser på deres egen virtuelle netværk. Kort inden for kort.

Men kommer der containerization, ledt af den open source platform Dokker. Selv om det var designet til at køre fordelt funktioner direkte på processorer (“bare metal”), en Dokker miljøet, kan være iscenesat på en VM, så godt. Pludselig, hvad iscenesættelse plads var blevet gjort niveau af cloud-platforme, vil kunne udnyttes af orchestrators for iscenesættelse fordelt funktioner.

Nu, pludselig, med det argument, at et netværk, der ville være bedre egnet, hvis visse af dets bestanddele, navnlig for steder, kunne være delegerede til at køre bestemte klasser af funktioner, var ikke længere genstand for spekulation. Der er nu en måde — eller i det mindste anelse af en vej, — for en orchestrator til marshal distribution af specificerede funktioner til bestemte steder, eller i det mindste, at noder, hvis specifikationer passer til den profil, der orchestrators kræver.

Og hvis orchestrator for hele cloud er så tæt på kunden som back office, hele forretningsmodellen fra cloud computing kan være vendt på sit øre.

“Hele cloud slags økosystem kommer til at udvikle sig til et multi-differentieret data center tilgang,” siger Steven Carlini, “der kommer til at indeholde meget små, micro datacentre i meget nær fremtid.”

Destination

scale-003-fig-06.jpg

Vores endelige destination for dette fire-del rejse vil være centreret om dette grundlæggende spørgsmål: I et IT-miljø med mindst tre, måske fire, lag af it-kapacitet, hvad der vil være den komponent, bestemmelse af, hvor arbejdsbyrden er iscenesat, og der vil være ansvarlig for den pågældende komponent?

Rejse Yderligere-Fra CBS Interaktive Netværk

Azure IoT, Schneider Electric, og WaterForce støtte bæredygtig farmingOpen Compute Projektet hverver AT&T, Verizon, mens voksende teleselskab supportSchneider Elektriske gør IoT på Microsoft Azure

Andre steder

HPE og Schneider Electric Partner på Micro DatacentersSwitching Skifte Gear: Schneider Electric ‘ s fremstød for SSISF5 Netværk: Beholdere Skal Både Netværk og Orkestrering

Relaterede Emner:

Cloud

Hardware

Servere

Netværk

Opbevaring

0