Zero

Ci sono voluti 37 giorni per il norvegese società incaricata di costruire la connettività in fibra ottica per il Brasile solo per portare il cavo ottico per il progetto dall’Oceano Atlantico, lungo il rio delle Amazzoni, per la città di Manaus.
Connettività per questa città a due milioni di abitanti non è mai stato una certezza. Per il 2014, i servizi cloud analista CloudHarmony classificato Sud America come il continente con il più grande servizio di latenza da lontano di qualsiasi regione del mondo; e l’anno seguente, è classificato in Brasile come il mondo è meno affidabile regione per Amazon AWS servizio.
Ora, le persone di Manaus sono stanco di “Amazon” giochi di parole. Nel frattempo, consumano fast food, così come il resto del mondo. Quindi per loro, una grande catena di ristoranti ha riprogettato il suo sistema di gestione degli ordini come una singola unità. Si tratta di un brillante esempio di un tempo reale di applicazioni distribuite.
Quando il ristorante del team marketing decide che è il momento per una nuova promozione, è possibile eseguire sul suo piano in pochi minuti anziché in mesi. Non solo i prezzi cambiano immediatamente in esecuzione, ma le schermate dei menu sopra l’ordine contatori e gli at the drive-thrus sono tutti aggiornati. Da quel punto, tendenze degli ordini sono misurati in tempo reale, e l’efficacia di una campagna può essere comunicata alla direzione entro la fine della giornata di lavoro. Algoritmi di intelligenza artificiale, che può essere inserito nella catena di trattamento, per pianificare i cambiamenti di prezzo in tempo reale in risposta a fattori come la domanda dei clienti, la temperatura esterna, e anche il ciclo di notizie.
Dovrebbe essere la quintessenza di un caso d’uso per il cloud computing. Ma non lo è davvero.
In Auto Attraverso
Stiamo insieme Waypoint #3 nel nostro, in quattro parti, viaggio alla ricerca del nuovo vantaggio per i data center moderni. E ‘ un luogo rimosso da qualsiasi punto ci si aspetterebbe, la sede o del sistema nervoso centrale di una rete moderna. Infatti, si tratta di un nodo in un modo altamente di un sistema distribuito. Ma ogni nodo ha a sé i suoi decentrata di autorità e di responsabilità-un certo livello di controllo.
“Vogliamo incoraggiare l’innovazione; vogliamo incoraggiare interrompendo. Ed è davvero difficile creare un ecosistema in cui ogni soluzione è studiata per un hardware specifico o per un cliente specifico.”
— Igal Elbaz, Vice Presidente dell’Ecosistema e Innovazione, AT&T
E ciascuno di questi nodi è un micro data center (µDC) nascosto da qualche parte dietro il pick-up. Camminare nella stanza, si sarebbe facilmente sbaglio una di queste unità per un frigorifero. Si tratta di un completamente autonomo, di 24 unità rack-mount system con un built-in unità di distribuzione dell’alimentazione. Il suo design è di Schneider Electric, tra i leader mondiale nella produzione di piattaforme fisiche e sistemi di alimentazione per i componenti del data center, e il capogruppo di alimentazione di backup di sistema produttore APC.
Steven Carlini è di Schneider Electric senior director di soluzioni globali. Egli percepisce una chiara, in corso di separazione dei poteri attraverso la piattaforma infrastrutturale che oggi chiamiamo “cloud”, con il cloud pubblico al centro e di proprietà o co-situato centri dati regionali lungo la periferia.
“Uno dei principali driver di bordo computing è un processo [dati] locale, e di inviare i risultati dei calcoli in the cloud”, Carlini detto a ZDNet. Ha continuato:
Da lontano, stiamo ancora vedendo la fornitura di contenuti come principale driver di avvicinarsi al cliente. Stiamo vedendo applicazioni industriali dove è sia il controllo di processo, gestione della pipeline, o di gestione delle acque reflue, o l’agricoltura, dove stiamo facendo un sacco di locali di lavorazione, e utilizzando i risultati di tale elaborazione per modificare la velocità di flusso o la temperatura dell’olio o dell’acqua attraverso i tubi, o automatizzare le valvole per aprire e chiudere in tempi certi. C’è un sacco di dati generati da un sacco di sensori in queste applicazioni.
“Dove stiamo vedendo. Non stiamo vedendo in generale le applicazioni di business”, ha sottolineato. “Non crediamo che i nostri clienti chiedendo.”
Il ristorante Brasiliano è stato fatto un notevole investimento iniziale dotare ogni località in cui, effettivamente, di un proprio locale cloud. Si può ragionevolmente presumere che, quando un’impresa si impegna in un progetto di questa portata, non è perché la sua gente vuole una più veloce l’esecuzione di Office 365. Ci sono applicazioni particolari che richiedono l’attenzione della critica, e se hanno bisogno di networking, che non è così critica come la velocità di distribuzione.
Anche: Fog computing: il Bilanciamento dei migliori locali di lavorazione con il cloud
Ma ecco cosa succede: Come più le imprese investono in dimensioni frigorifero centri dati, ovunque essi si trovino, il costo di investimento è in declino. A sua volta, il punto di pareggio in cui il prezzo del cloud provider ” mensile “as-a-Service” le tasse si raggiunge con il costo di una µDC, arriva presto e prima.
Per aiutare a rendere alcuni centri dati più come elettrodomestici, Schneider Electric è anche spostandosi più vicino al cliente. Qui è dove la “svista” entra in gioco (e ho scelto la parola per una varietà di ragioni: In un ambiente cloud, dove i carichi di lavoro potrebbe finire per essere messo in scena locale, in µDCs, in hyperscale co-lo di strutture, o nel più ampio di cloud pubblico, non solo di diventare fondamentale per individuare i componenti che prende la decisione, ma dove si trova. Probabilmente, non ha molto senso per un orchestrator profondo in un cloud pubblico per determinare i carichi di lavoro di ottenere ospitato localmente. I tecnici di rete chiamata che tipo di back-e-indietro interazione di un “round trip”, e che tenta di evitare la costruzione di tali viaggi come meglio possono.
“Abbiamo bisogno di creare ubiquità. È molto importante che ci separano tra applicazioni e carichi di lavoro, e di come l’hardware è specificato per loro-dalla rete dei carichi di lavoro”, ha detto Igal Elbaz, AT&T, di cui è vice presidente per l’ecosistema e l’innovazione, parlando con ZDNet. “Vogliamo allontanare da un mondo in cui si costruisce qualcosa di specifico per un determinato cliente. Vogliamo incoraggiare l’innovazione; vogliamo incoraggiare interrompendo. Ed è davvero difficile creare un ecosistema in cui ogni soluzione è studiata per un hardware specifico o per un cliente specifico.”
Caratteristica speciale: XaaS: Perche ‘tutto cio’ è ora un servizio
Così almeno dalla prospettiva di connettività provider AT&T, è nell’interesse di tutti, per il lungo termine, non hanno la specializzazione in stili e buildouts di dati centri, grandi e piccoli. Che non è per dire, micro centri dati sono cattive idee; anzi, AT&T sta giocando un ruolo importante nell’aiutare a Vapore IO e altri a costruire µDCs a 5G di connettività punti. Ma lancia una grande chiave nella teoria che µDCs sono solo specializzati frigorifero scatole che possono aiutare i clienti in territori difficili lavorare la loro via d’uscita di una connettività di marmellata.
“Tutto questo cloud tipo di ecosistema si evolverà per un multi-tiered data center approccio che sta andando a includere molto piccole, micro centri dati in un futuro molto vicino.”
— Steven Carlini, Direttore Senior per Centro Dati Globale di Soluzioni Schneider Electric
Inevitabilmente, la questione sarà sollevata: Perché non è possibile che la stessa soluzione che ha risolto un fast food della catena di sincronicità problemi in Brasile realizzare gli stessi obiettivi per un’altra catena, come dire, in Kansas?
Schneider Electric spiega Carlini:
Si potrebbe anche vedere l’inizio del prossimo anno, queste micro centri di elaborazione dati che sono la replica di cloud stack — Azure Stack e Google stack — che stanno andando a essere in locali per gli uffici e i siti più piccoli. Così, per Azure, l’esempio potrebbe essere quello di Office 365. Avrete un esempio di quella locale, un’istanza in co-lo di data center, o avrete nel vostro data center cloud alla periferia della società, e si può o non può sapere dove il 365 è in esecuzione. Stanno sviluppando algoritmi per come tutto ciò che sarà, e se sarà trasparente per l’utente, o se l’utente sarà in grado di scegliere il percorso preferito per l’esecuzione di tali applicazioni.
Finale n-tier
Un programma per computer è sempre stato, e sempre sarà, una sequenza di istruzioni consegnato a un processore per l’esecuzione all’interno di un’unica campata di memoria. Un’applicazione è un concetto più ampio di un programma, e nel corso del tempo, è solo diventa più ampia.
Questa diffusione dell’applicazione dell’impronta è reso possibile dall’espansione del territorio per la creazione di reti virtuali. Abbiamo parlato un po ‘ di applicazione distribuita, ma fino ad ora, non molto su ciò che la distribuzione di esso.
Oggi, i dati dei centri di utilizzare piattaforme cloud come un mezzo per affrontare più, disparate istanze di una stessa classe di risorsa-la capacità del processore, spazio di indirizzi di memoria, di capacità di storage, di rete o tessuto — come singolo adiacente piscine. Tale piattaforma rende possibile per una macchina virtuale (VM), che ha usato per essere relegato a un hypervisor in esecuzione su un singolo processore, si estendono su più server — o, per usare l’infrastruttura virtuale termine per loro, i nodi di calcolo. Così, in un hyperscale data center, ogni server è come un mattone in un (apparentemente) senza soluzione di continuità della parete. La piattaforma di cloud non solo fornisce il mortaio, ma “forme” non-uniform server in modo tale che si adatti allo schema senza interrompere l’illusione di omogeneità.
In VMware ultima schema per vSphere, ogni nodo del server host di una rete layer di virtualizzazione chiamato NSX. Ovunque NSX viene eseguito, un vSphere gestione istanza è in grado di mantenere le risorse per farlo, e la fase di Vm su di esso. Un paio di mesi fa, VMware ha annunciato che NSX sarà supportato su Amazon infrastruttura cloud pubblica. Come risultato, vSphere i clienti che sono anche AWS abbonati a percepire entrambi gli spazi come una singola piattaforma di gestione temporanea per le macchine virtuali. Cosa c’è di più, le applicazioni in esecuzione su quelle macchine virtuali saranno in grado di accedere a risorse AWS, come la S3 blocchi di archiviazione e Redshift funzioni di database, attraverso chiamate API.
Microsoft competitiva della piattaforma Azure Stack, per cui Schneider Electric Carlini di cui in precedenza: un’estensione di risorse disponibili su Azure cloud pubblico piattaforma, in modo che le applicazioni possano percepire l’Azzurro spazio di Stack e Azzurro spazio, come la stessa piscina. E sull’open source lato, OpenStack rimane una forte sfidante per VMware tradizionale spazio, fornendo un mezzo per un’azienda di automatizzare la distribuzione e la gestione di cloud privati e ibridi spazi.
Anche: Public cloud, cloud privato o ibrido cloud: che Cosa è la differenza?
Queste piattaforme servire come equalizzatori — i “livelli di astrazione” — per i server che sono stati riuniti in cluster per il calcolo distribuito. Ancora oggi, i loro rispettivi sostenitori sostengono che essi estendere il cloud facilmente e in modo omogeneo in tutta vasto e si estende su diversi hardware collegato dalla rete stessa. Queste piattaforme di utilizzare il proprio IP protocollo di rete overlay, quindi, anche come loro componenti luoghi virtuali sono trasferiti attraverso la rete fisica, conservano la loro indirizzi loro reti virtuali. Le mappe all’interno di mappe.
Ma ecco che arriva la containerizzazione, sostenuto dalla piattaforma open source Mobile. Anche se è stato progettato per eseguire distribuito direttamente le funzioni di processori (“bare metal”), un Pannello di ambiente può essere organizzato su una VM. Improvvisamente, qualsiasi sia l’allestimento spazio rese livello di piattaforme cloud, potrebbero essere sfruttate da orchestrators per la messa in scena distribuito funzioni.
Ora, tutto ad un tratto, l’argomento che la rete potrebbe essere più adatto se alcuni dei suoi componenti, in particolare i luoghi, potrebbe essere delegata per l’esecuzione di particolari classi di funzioni, non è stata più oggetto di speculazione. Ora c’è un modo-o almeno la vaga idea di un modo-per un orchestrator al maresciallo la distribuzione delle funzioni specificate per luoghi designati, o, almeno, a nodi, le cui specifiche di funzionamento misura il profilo che orchestrators richiedono.
E se l’orchestratore per l’intera nube è quanto di più vicino al cliente, come il back office, l’intero modello di business del cloud computing potrebbe essere capovolta sul suo orecchio.
“Tutto questo cloud tipo di ecosistema si evolverà per un multi-tiered data center approccio,” ha detto Steven Carlini, “che sta andando a includere molto piccole, micro centri dati in un futuro molto vicino.”
Destinazione
La nostra destinazione finale, per questo, in quattro parti, viaggio al centro di questa domanda fondamentale: In un ambiente con almeno tre, forse quattro, i livelli di capacità di elaborazione, che sarà la componente di determinare dove i carichi di lavoro sono in scena, e chi sarà responsabile di tale componente?
Viaggio-Dalla CBS Interactive Network
Azure IoT, Schneider Electric, e WaterForce sostenibile farmingOpen Calcolare Progetto arruola AT&T, Verizon crescendo telco supportSchneider Elettrico non IoT su Microsoft Azure
Altrove
HPE e Schneider Electric per il Partner Micro DatacentersSwitching l’Interruttore Gear: Schneider Electric Spingere per SSISF5 Reti: Contenitori Bisogno di Networking e di Orchestrazione
Argomenti Correlati:
Cloud
Hardware
Server
Networking
Archiviazione
0