De drive-thru data center: Wanneer een apparaat loopt uw lokale cloud

0
137

Nul

scale-003-fig-01.jpg

Het duurde 37 dagen voor het noorse bedrijf gecontracteerd om te bouwen glasvezel verbindingen voor Brazilië slechts om de optische kabel aan voor het project van de Atlantische Oceaan, langs de Amazone-Rivier, aan de stad Manaus.

Connectiviteit voor deze stad van twee miljoen meer inwoners heeft nog nooit een zekerheid. Voor 2014, cloud-diensten analist CloudHarmony gerangschikt Zuid-Amerika, het continent met de grootste service latentie ver van elke regio in de wereld; en het volgende jaar, het nominale Brazilië als ‘ s werelds minst betrouwbare regio voor Amazon AWS service.

Nu, de mensen van Manaus zijn moe van de “Amazon” van de woordspelingen. Ondertussen, ze verbruiken fast food, net als de rest van de wereld. Dus voor hen, een grote restaurantketen heeft rearchitectuur het order management systeem als een enkele eenheid. Het is een briljant voorbeeld van een real-time distributed toepassing.

Bij het restaurant ‘ s marketing team besluit dat het tijd is voor een nieuwe promotie, het kunnen uitvoeren van zijn plan in minuten in plaats van maanden. Niet alleen de prijzen te wijzigen onmiddellijk op de uitvoering, maar de menu-schermen boven de bestelling en tellers bij het drive-thrus zijn allemaal bijgewerkt. Vanaf dat punt, bestellen trends zijn gemeten in real-time, en de effectiviteit van een campagne kunnen worden gerapporteerd aan het management door het einde van de werkdag. Kunstmatige intelligentie algoritmen kunnen worden ingevoegd in de keten, te plannen prijs wijzigingen in real-time in reactie op factoren zoals de vraag van de klant, de buiten temperatuur, en zelfs de nieuws-cyclus.

Het moet de ultieme use case voor cloud computing. Behalve dat het niet echt is.

Rijden Door

scale-001-fig-07.jpg

We zijn langs Waypoint #3 in onze vier-delige reis op zoek naar de nieuwe rand voor moderne datacenters. Het is een plaats verwijderd van waar je zou verwachten dat de hoofdzetel of het centrale zenuwstelsel van een modern netwerk. Inderdaad, het is een knooppunt in een zeer gedistribueerd systeem. Maar elk knooppunt heeft op zichzelf de eigen, decentrale gezag en de verantwoordelijkheid — een bepaald niveau van toezicht.

“We willen stimuleren van innovatie; we willen stimuleren verstoren. En het is echt moeilijk om te maken een ecosysteem waar elke oplossing is ontworpen voor specifieke hardware, of voor een specifieke klant.”

— Jig-al, Elbaz, Vice-President van het Ecosysteem & Innovatie AT&T

En elk van deze knooppunten is een micro data center (µDC) ergens verscholen achter de pick-up venster. Wandelen in de achterkamer, zou je gemakkelijk de fout van een van deze eenheden voor een koelkast. Het is een volledig self-contained, 24-unit rack-mount-systeem met een ingebouwde power distribution unit. De ontwerper is Schneider Electric-één van ‘ s werelds toonaangevende producent van fysieke platforms en power systemen voor data center componenten, en de moedermaatschappij van de back-up power system producent van APC.

Steven Carlini is Schneider Electric ‘ s senior director global solutions. Hij ziet een duidelijke, permanente scheiding van de machten in de infrastructuur platform dat we nu noemen “de cloud” met de public cloud in het midden en in eigendom of mede-gelegen regionale datacenters langs de periferie.

“Een van de belangrijkste aanjagers van de rand computing is te verwerken [data] lokaal, en het verzenden van de resultaten van de berekeningen in de cloud”, Carlini vertelde ZDNet. Hij vervolgde:

Door ver, we zijn nog steeds in de levering van inhoud als de belangrijkste factor die dichter bij de klant. We zien industriële toepassing waar het is een proces control, pipeline management, of waste water management, of in de landbouw, waar we aan het doen bent veel lokale verwerking en het gebruik van de resultaten van de verwerking voor het wijzigen van het debiet of de temperatuur van olie of water, via leidingen, of het automatiseren van afsluiters te openen en te sluiten is op bepaalde tijden. Er is veel van gegevens die zijn gegenereerd door een groot aantal sensoren in deze toepassingen.

“Dat is waar we het zien. We zien het in de algemene business-applicaties,” merkte hij op. “We zien niet met onze klanten vragen.”

De Braziliaans restaurant, een aanzienlijke investering in waarbij aan elk van de locaties, effectief, zijn eigen lokale cloud. Wij in redelijkheid kunnen aannemen dat wanneer een onderneming zich ertoe verbindt een project van deze omvang, het is niet omdat de mensen willen een snellere uitvoering van Office 365. Er zijn bepaalde applicaties die kritische aandacht, en hoewel zij nodig hebben voor netwerken, dat is niet zo belangrijk als de snelheid van implementatie.

Ook: Mist computing: het Balanceren van de beste van de lokale verwerking met de cloud

Maar hier is wat er gebeurt: Als meer bedrijven investeren in de koelkast en middelgrote datacenters, waar ze ook zijn, de kosten van de investering afneemt. Op zijn beurt, het break-even punt waar de prijs van cloud providers’ maandelijkse ‘as-a-Service” – kosten van de vangsten met de kosten van een µDC, komt eerder en sneller.

171028-m01-scale-w3-fig-03.jpg

Om te helpen bij het maken van bepaalde data centers meer zoals apparaten, Schneider Electric is ook bewegen zich dichter bij de klant. Hier is waar “toezicht” in het spel komt (en ik koos voor dat woord voor een verscheidenheid van redenen): In een cloud-omgeving waar werklasten kunnen worden gehouden op locatie, in µDCs, in hyperscale co-lo-faciliteiten, of in de bredere publieke cloud, het zal niet alleen van cruciaal belang om te identificeren welk onderdeel maakt van die bepaling, maar waar het is gelegen. Ongetwijfeld, het heeft niet veel zin te maken voor een orchestrator diep in de publieke cloud te bepalen welke workloads krijgen gehost lokaal. Netwerk ingenieurs noemen dat soort heen-en-weer samenspel een “round-trip” en ze proberen te voorkomen dat het bouwen van dergelijke reizen als het beste wat ze kunnen.

“We moeten maken alomtegenwoordigheid. Het is heel belangrijk dat wij een aparte tussen de applicatie en de IT-werklast-en hoe de hardware is opgegeven voor hen-netwerk van workloads,” zei Jigeal, Elbaz, AT&T ‘ s vice president voor het ecosysteem en innovatie, spreken met ZDNet. “We willen weg van een wereld waar je iets op te bouwen, specifiek voor een bepaalde klant. We willen innovatie te stimuleren; we willen stimuleren verstoren. En het is echt moeilijk om te maken een ecosysteem waar elke oplossing is ontworpen voor specifieke hardware, of voor een specifieke klant.”

Speciale functie: XaaS: Waarom ‘alles’ is nu een service

Dus in ieder geval vanuit het perspectief van connectivity provider AT&T, het is in ieders belang, voor de lange termijn, niet om de specialisatie in de stijlen en buildouts van data centers, groot en klein. Dat wil niet zeggen dat micro datacenters zijn slechte ideeën; inderdaad, AT&T speelt een grote rol in het helpen van Damp IO en anderen op te bouwen µDCs op 5G connectiviteit punten. Maar het brengt ook een grote sleutel in de theorie dat µDCs zijn slechts gespecialiseerde koelkast dozen dat kan klanten helpen in moeilijke gebieden werken hun weg uit een verbinding vast.

“Dit hele cloud soort van ecosysteem zal evolueren naar een multi-tiered datacenter aanpak die zijn zeer klein, micro datacenters in de zeer nabije toekomst.”

— Steven Carlini, Senior Director voor Global Data Center Solutions, Schneider Electric

Onvermijdelijk zullen deze vraag worden gesteld: Waarom kan ik niet dezelfde oplossing die oplossing van een fast-food keten is synchroniciteit problemen in Brazilië doen dezelfde doelen voor een dergelijke keten in, zeg, Kansas?

Schneider Electric ‘ s Carlini legt uit:

Misschien ziet u zelfs aan het begin van volgend jaar, deze micro datacenters die het repliceren van de cloud stacks — Azure Stapel en de Google-stapel-dat gaat worden op het terrein voor kantoren en kleinere sites. Dus voor Azure, de voorbeeld Office 365. Je hebt een exemplaar van die on-premises, een exemplaar in uw co-lo-data-center, of je moet het in je cloud data center aan de rand van de maatschappij, en je kan niet weten waar dat 365 is uitgevoerd. Ze zijn het ontwikkelen van algoritmen voor hoe het allemaal werkt, en of het transparant zijn voor de gebruiker, of als de gebruiker in staat zal zijn om te kiezen de door hun gewenste locatie voor het uitvoeren van deze toepassingen.

De definitieve n-tier

Een computer programma is het altijd geweest, en zal altijd zijn, een sequentie van instructies geleverd aan een processor voor de uitvoering binnen een tijdsspanne van het geheugen. Een applicatie is een breder concept dan een programma, en na verloop van tijd, is alleen steeds breder.

Deze uitbreiding van de toepassing van de voetafdruk wordt mogelijk gemaakt door de uitbreiding van het grondgebied voor een virtueel netwerk. We hebben even gepraat over de gedistribueerde toepassing, maar tot nu toe, niet erg veel over wat te verdelen.

Vandaag, datacenters gebruik van cloud-platforms als een middel om meerdere afzonderlijke exemplaren van dezelfde klasse van resource — processorcapaciteit, geheugen adres ruimte, opslagcapaciteit, of netwerken stof — als één aaneengesloten zwembaden. Dit platform maakt het mogelijk om een virtuele machine (VM), die gebruikt worden overgelaten aan een hypervisor draait op een single-processor, tot meerdere servers, of, om het gebruik van de virtuele infrastructuur term voor hen, compute nodes. Dus in een hyperscale data center, elke server is als een baksteen in een (schijnbaar) naadloze wand. Het cloud platform biedt niet alleen de mortel, maar “vormen” non-uniform servers op een zodanige manier dat ze passen in de regeling zonder verstoring van de illusie van homogeniteit.

171028-m01-scale-w3-fig-04.png

In VMware ‘ s meest recente regeling voor vSphere, elke server node hosts op een netwerk virtualisatie laag genoemd NSX. Waar NSX loopt, een vSphere management instantie kan handhaven middelen voor het podium en VMs. Een paar maanden geleden, VMware kondigde aan dat NSX zal worden ondersteund op Amazon ‘ s public cloud-infrastructuur. Als een resultaat, vSphere klanten die ook AWS abonnees zullen waarnemen van beide ruimten als één staging platform voor VMs. Wat meer is, zijn de applicaties die op deze VMs in staat zal zijn om toegang te krijgen tot AWS middelen, zoals S3 storage blokken en Roodverschuiving database functies, door middel van API-aanroepen.

Microsoft concurrerende platform Azure Stapel, die Schneider Electric ‘ s Carlini bedoelde eerder: een uitbreiding van de middelen die beschikbaar zijn op de Azuurblauwe public cloud-platform, zodat toepassingen kunnen waarnemen Azure ruimte in Stack en Azure ruimte als hetzelfde zwembad. En op de open source kant, OpenStack is nog steeds een sterke uitdager voor VMware ‘ s traditionele ruimte, voorzien in een middel voor een onderneming te automatiseren, de implementatie en het beheer van private en hybride cloud ruimtes.

Ook: de Public cloud, private cloud of een hybride cloud: Wat is het verschil?

Deze platforms dienen als de equalizers — de “lagen van abstractie” — voor servers die worden verzameld in clusters voor distributed computing. Zelfs vandaag de dag, hun respectieve voorstanders beweren dat ze verlengen de cloud en naadloos homogeen over grote overspanningen van ongelijksoortige hardware verbonden met hetzelfde netwerk. Deze platformen maken gebruik van hun eigen IP-protocol netwerk overlays, dus zelfs als hun onderdelen’ virtuele locaties worden verplaatst over het fysieke netwerk, ze behouden hun adressen op hun eigen virtuele netwerken. Kaarten in maps.

Maar langs komt containervervoer, verdedigd door het open source platform Docker. Hoewel het werd ontworpen om te draaien verspreid functies direct op het processors (“bare-metal”), Dokwerker omgeving kan worden opgevoerd op een VM. Plotseling, wat staging-ruimte waren gemaakt niveau door cloud-platforms kan worden gebruikt door orchestrators voor het organiseren verspreid functies.

Nu, alle van een plotselinge, het argument dat een netwerk beter geschikt zou zijn als bepaalde onderdelen daarvan, in het bijzonder plaatsen, kunnen gedelegeerd worden aan het uitvoeren van bepaalde klassen van functies, was niet langer het onderwerp van speculatie. Er is nu een manier-of op zijn minst het idee van een weg — voor een orchestrator aan maarschalk de verdeling van de specifieke functies voor de aangewezen locaties, of in ieder geval de knooppunten waarvan de specificaties die passen in het profiel dat orchestrators nodig.

En als de orchestrator voor de gehele cloud is zo dicht mogelijk bij de klant als de back-office, het hele business model van cloud computing kan worden omgedraaid op haar oor.

“Dit hele cloud soort van ecosysteem zal evolueren naar een multi-tiered datacenter aanpak,” aldus Steven Carlini, “dat zijn zeer kleine, micro datacenters in de zeer nabije toekomst.”

Bestemming

scale-003-fig-06.jpg

Onze eindbestemming voor deze vier-delige reis zullen op deze fundamentele vraag: In een IT-omgeving met ten minste drie, misschien vier lagen van computing-mogelijkheden, wat zal de component te bepalen waar de werkdruk opgevoerd, en die zullen worden belast, dat onderdeel?

Reis Verder — Van de CBS-Interactief Netwerk

Azure IoT, Schneider Electric, en WaterForce ondersteuning van duurzame farmingOpen Compute Project werft AT&T, Verizon, terwijl de groeiende telco supportSchneider Elektrische doet IoT op Microsoft Azure

Elders

HPE en Schneider Electric om Partner op Micro DatacentersSwitching de Switch Gear: Schneider Electric ‘ s Push voor SSISF5 Netwerken: Containers Moeten Beide Netwerken en Orchestration

Verwante Onderwerpen:

Cloud

Hardware

Servers

Netwerken

Opslag

0