Cloud i costi di migrazione sono schiaccianti aziende
ZDNet Larry Dignan dice TechRepublic è Karen Roby sui problemi che le imprese incontrano quando si cerca di passare al cloud.
La frase “data center” è, fin dall’inizio, di una presunzione. Ricorda un’epoca in cui un’impresa di back-office, dei sistemi di informazione sono stati in gran parte dedicata alla conservazione dei dati, e sono state inchiodate in una cantina o un ripostiglio posizione. “Infrastrutture”, come un sistema di fognatura o di una fondazione di una strada sotto le marmitte, era qualcosa che nessuno doveva vedere o prestare attenzione.
Oggi, tutte queste ipotesi sono state rovesciate. Infrastruttura IT aziendale in quanto si compone di potenza di calcolo e la connettività, oltre alla memorizzazione dei dati. E come la stessa azienda, ha una naturale tendenza ad essere distribuito.

All’interno di Facebook Fort Worth complesso del centro di dati.
(Immagine: Chad M. Davis per Facebook)
×
facebook-fort-worth-data-center-03.jpg
Un hyperscale data center è meno come un magazzino e di più come un hub di distribuzione, o che al dettaglio di Amazon potrebbe definire un “centro di adempimento.” Anche se oggi queste strutture sono molto grandi, e sono gestiti da grandi fornitori di servizi, altamente scalabile: non si trattava di grandezza, ma piuttosto la scalabilità.
Immaginate per un attimo una fabbrica in cui ogni elemento coinvolto nella fabbricazione di un prodotto, compreso il nastro trasportatore che porta le parti sulla linea di montaggio, sono stati separati in una piccola zona. Avete letto bene: una piccola area. Ora immaginate la funzionalità di questo modulo, diventando in modo efficiente e in modo affidabile che tuo potrebbe crescere il vostro reddito in modo esponenziale, collegando semplicemente il più moduli insieme in un lineare riga. O una fattoria dove, se raddoppi la superficie, è più che raddoppiare il vostro reddito.
Hyperscale è l’automazione applicata ad un settore che doveva essere di circa automazione per iniziare con. È sulle organizzazioni che capita di essere grande, cogliendo il giorno e prendere il controllo di tutti gli aspetti della loro produzione. Ma è anche la diffusione di hyperscale pratiche diffuse in tutti i data center di edifici-non solo il eBays e Amazzoni del mondo, ma i giocatori più piccoli, i ragazzi po’, la gente giù per la strada. Sapete a chi mi riferisco: aziende farmaceutiche, società di servizi finanziari, e fornitori di servizi di telecomunicazione.
Un vendor in apparecchiature del data center spazio chiamato di recente hyperscale “troppo grande per la maggior parte delle menti di immaginare.” La scalabilità è sempre stato la creazione di opportunità per fare piccole cose, utilizzando le risorse che capita di abbracciare una scala molto grande.
Deve leggere:
I Data center: Il futuro è definito da softwareHanno hyperscale in viaggio: la prossima data center rivoluzione comincia in una toolshed
Che cosa fanno gli “iper” e “scala” parti?
In particolare, un hyperscale data center compie le seguenti operazioni:
Massimizza l’efficienza di raffreddamento. La più grande spesa operativa, nella maggior parte dei centri dati in tutto il mondo-più che alimentare i server — alimenta i sistemi di climatizzazione. Un hyperscale struttura può essere partizionata di schematizzare ad alta intensità di calcolo dei carichi di lavoro, e di concentrare la potenza di raffreddamento sui server che ospitano tali carichi di lavoro. Per general-purpose carichi di lavoro, un hyperscale architettura che ottimizza il flusso d’aria in tutta la struttura, assicurando che l’aria calda fluisce in una sola direzione (anche se è una serpentina) e spesso il recupero del calore dal flusso di gas di scarico ai fini di riciclaggio.Alloca energia elettrica in pacchetti discreti. In strutture progettate per essere occupato da più inquilini, i “blocchi” sono assegnati come tanti in un contenitore di sviluppo. Qui, i rack che occupano i blocchi sono assegnati un numero di chilowatt-o, più recentemente, le frazioni di megawatt — dalla fonte di alimentazione principale. Quando un inquilino affitta lo spazio da un provider di colocation, che lo spazio è spesso formulata non in termini di numero di rack o metraggio quadrato, ma chilowatt. Un design che è più influenzato da hyperscale aiuta a garantire che chilowatt sono disponibili quando un cliente ha bisogno di loro.Assicura la disponibilità di energia elettrica. Molti enterprise data center sono dotati di alimentazione ridondante fonti (gli ingegneri chiamano questa configurazione 2N), spesso supportata da una fonte secondaria o generatore (2N + 1). Un hyperscale impianto può utilizzare una di queste configurazioni, anche se in questi ultimi anni, carico di lavoro, sistemi di gestione hanno reso possibile replicare il carico di lavoro su server, facendo i carichi di lavoro ridondante, piuttosto che il potere, riducendo le tariffe elettriche. Come risultato, i dati più recenti centri non richiedono tutta la potenza di ridondanza. Si può ottenere via con solo N + 1, con un risparmio non solo i costi delle attrezzature, ma i costi di costruzione.Saldi carichi di lavoro tra i server. Perché il calore tende a diffondersi, surriscaldato server può facilmente diventare un fastidio per gli altri server e apparecchiature di rete nelle sue vicinanze. Quando i carichi di lavoro e l’utilizzo del processore sono adeguatamente monitorati, le macchine virtuali e/o contenitori custodia di alta intensità dei carichi di lavoro possono essere trasferiti o distribuiti tra i processori che meglio si adattano alle sue funzioni, o che, semplicemente, non viene utilizzato quasi quanto al momento. Anche la distribuzione dei carichi di lavoro direttamente correlato alla riduzione della temperatura, così come di un data center gestisce il suo software è altrettanto importante come lo mantiene i suoi sistemi di supporto.
Quanto è grande la “grande?”
All’interno di Facebook Fort Worth complesso del centro di dati
(Immagine: Chad M. Davis per Facebook)
×
facebook-fort-worth-data-center-01.jpg
Che cosa rende un grande stabilimento di hyperscale non è la sua dimensione, ma piuttosto come il suo design permette ai suoi inquilini di utilizzare in modo ottimale le proprie risorse all’interno di quella dimensione. AFCOM, l’associazione per i professionisti di questo settore, ha sviluppato una metrica per la distinzione tra le classi di dati. Conta il numero di rastrelliere per la struttura ospita, e anche il numero dei metri quadrati o metri quadrati) dedicato solo per i componenti (il suo “spazio bianco”). Esso corrisponde quindi entrambi i numeri con il grafico qui sotto, e sceglie il nome della metrica per il numero più alto di una riga. Per esempio, una struttura con 120 rack in 6.000 metri quadrati di spazio bianco potrebbe essere considerato “Medio”, in quanto di 6.000 rientra nella gamma più alta.
(Immagine per gentile Concessione AFCOM)
×
afcom-data-center-size-metrics.jpg
Per darvi un parametro di riferimento, il settore della vendita al dettaglio del 2017 stima della media dello spazio per gli attivi di NOI supermercati era circa 47.000 metri quadrati.
Se hai mai visto o partecipato nella costruzione di un supermercato, si sa che il punto di tutta la costruzione di una grande struttura di vendita al dettaglio è quello di sfruttare come molti efficienza possibile per massimizzare la redditività. Certamente non è meno costoso da costruire, di potere, di freddo o di calore di un edificio di grandi dimensioni, ma tutti questi costi potrebbero essere inferiori al metro quadrato o metro cubo. Non saranno inferiori, tuttavia, se l’edificio non è costruito con efficienza e best practice. In altre parole, se stai facendo l’edificio più grande, solo per essere più grande, non stai facendo un buon uso di qualsiasi innata economie di scala di un fattore di forma più grande offre.
Una fabbrica che lavora in un modo simile. Se si progetta una grande fabbrica spazio con efficienze in mente, le efficienze tradurrà in minori costi di esercizio, e una maggiore redditività per tutto il prodotto.
Un data center è un’informazione di fabbrica. Produce tutte le risorse e le funzionalità che è possibile utilizzare sul lato opposto della connessione a Internet del tuo browser o app per smartphone.
La sinergia del Gruppo di Ricerca, che analizza le aziende di servizi di data center spazio, definisce un hyperscale data center come parte di un ampio complesso (almeno) che è gestito da una “hyperscale provider”. Dal che, la ditta si intende una organizzazione che gestisce i grandi impianti che utilizzano il hyperscale principi sopra elencati. Lo scorso gennaio, l’azienda ha stimato che alla fine dello scorso anno, il mondo ha avuto un totale di 430 hyperscale strutture, circa il 40% dei quali si trova in USA.
Un artista concezione di Edificio 3 di Facebook Fort Worth data center, quando completato.
(Immagine: Cortesia, Facebook)
×
facebook-fort-worth-data-center-07.jpg
Qui è il modello di un moderno hyperscale data center: Situato a Fort Worth, in Texas, e ufficialmente inaugurato nel Maggio del 2017, Facebook quinto hyperscale struttura comprende ora l’H-Edificio a forma di 3, che è diventato il modello per più progetti di costruzione a 10 successive strutture in tutto il mondo. Quando completato a metà del 2020, le stime attuali, il complesso comprende cinque edifici, per un totale di spazio collettivo che dovrebbe eclipse 2,5 milioni di metri quadrati.
Anche se Facebook non ha fornito una stima ufficiale, i giornalisti parlando con gli ingegneri, hanno raccolto, che in questo palazzo da solo campate di 450.000 metri quadrati totali, sicuramente qualificazione come AFCOM “Mega”. Naturalmente, una parte di questo spazio è per le apparecchiature informatiche (lo spazio bianco), mentre un altro pezzo è per il potere e il sostegno, e il centro di collegamento è lo spazio dell’ufficio.
All’interno di ciascun pilastro della “H” sono combinazioni modulari di distribuzione principale fotogrammi (MDF), chiamato anche i dati di sale. Questi moduli si estendono in due direzioni dall’edificio la struttura di distribuzione (BDF) in centro, accatastamento su uno sull’altro, come lateralmente blocchi di costruzione. La BDF contiene delle telecomunicazioni, cavi di collegamento di questi dati si sale verso il mondo esterno.
Il layout standard per un segmento di “H” in Facebook hyperscale data center.
(Immagine: Cortesia, Facebook)
×
facebook-data-hall.jpg
Già, si può vedere il vero scopo di hyperscale architettura: Per rendere possibile la somministrazione di spazio fisico, e i sistemi fisici che abitano lo spazio, con gli stessi livelli di efficienza e di automazione dedicati alla gestione del software.
Deve leggere:
Facebook next-gen di rete del data center debutta in Altoona, Iowa
Facebook consente di specificare hyperscale, ridefinendo il data center
In qualsiasi mercato, il consumatore, che è in grado di acquisto all’ingrosso, di solito in massa, è spesso quello con il maggior potere d’acquisto. Facebook, Google, Amazon, eBay, Microsoft, e sono riconosciute come organizzazioni che hanno implementato il massimo, e in un certo senso, il più grande — hyperscale centri dati.
Ma Facebook è stato il più forte e più incisiva forza che istituisce le linee guida per quello che hyperscale dovrebbe essere, nella speranza che siano gli altri a seguire il suo piombo e riducendo i costi. Nel 2014, Facebook ha pubblicato le sue specifiche tecniche per l’architettura del data center si costruisce, e il montaggio di attrezzatura informatica. Si dice che il mondo di ciò che acquista e perché, in modo che i produttori avrebbero per lavori di costruzione.
Anche se Facebook si astiene dal invocando la parola “hyperscale,” molti fornitori di attrezzature che affermano di offrire componenti per hyperscale centri di elaborazione dati, il trattamento di Facebook della dichiarazione in quanto la loro definizione ufficiale. Ecco come Facebook del hyperscale tessuto opere:
Switch di rete sono a strati e disaggregati. Facebook principale rete building block è un contenitore, che sostituisce il cluster in configurazioni tipiche. Le dimensioni di un contenitore è limitata a 48 server rack-né più, né meno-con ogni rack dotato, come suo solito, top-of-rack switch (TOR), ma con tutti e 48 gli interruttori di essere servito a sua volta da 4 alto livello di dispositivi chiamati tessuto interruttori. E ‘ il tessuto che assicura che ogni server del contenitore è ugualmente e in modo ridondante collegato all’intera rete. Questo, a sua volta, consente un sistema di gestione per instradare i carichi di lavoro per il server più adatto per loro.
Un diagramma 3D di Facebook del hyperscale topologia di rete.
(Immagine: Cortesia, Facebook)
×
facebook-network-topology.jpg
Rete baccelli sono incrociati. Ogni tessuto interruttore è numerato (1, 2, 3, 4), e ogni numero corrisponde a un livello superiore di interruttori che formano ciò che Facebook chiama la colonna vertebrale piano. Qui, ogni spina interruttore collega a 48 tessuto switch — di nuovo, niente di più, niente di meno. E ‘ assolutamente questa natura fissa dell’interruttore accordo che garantisce che nessun singolo punto della rete è “sottoscrizione” — che la larghezza di banda del traffico in arrivo non è mai superiore per il traffico, a meno che il sistema amministrativo percepisce una necessità a breve termine per un accordo di questo, e può preparare il tessuto in modo appropriato.La costruzione dell’edificio e il layout sono attorno a cialde. Quando il data center è costruito, il supporto fisico per tutti i cavi di rete e connessioni di alimentazione che richiedono contenitori-così come i contenitori che possono ancora essere costruito in una data futura — sono costruiti in BDF. Così un hyperscale struttura è stata costruita una componente di una rete globale, come un dispositivo elettronico che succede a prendere più di 100.000 metri quadrati di spazio.Un server è un server è un server. All’interno di questo tessuto, ogni server è un bare-bones, spendibili in mattoni. Come un disco rigido in un array RAID, si prevede di fallire, e il server non è più speciale di un altro. Quando non è possibile, o anche quando il suo rendimento scende al di sotto par, si ottiene offline e sostituito.
Quindi, se un contenitore è esattamente 48 tessuto interruttori, e una colonna vertebrale è esattamente 48 di propri parametri, si potrebbe essere se stessi chiedendo, proprio dove è questo altamente pubblicizzato scalabilità dovrebbe essere? È nel modo in cui le risorse all’interno di questo rigido, omogeneizzati di infrastrutture sono utilizzati.
Perché l’automazione del data center è come il cambiamento climatico
In un tipico data center aziendale, attrezzature di 10 anni o anche i vecchi co-esiste con prodotti freschi di componenti dalla fabbrica. Come risultato, la sua topologia di rete tende ad acquisire una certa “consistenza”, dove alcuni segmenti di svolgere meglio di altri.
Leggere hyperscale in viaggio: la prossima data center rivoluzione comincia in una toolshed — la prima edizione di ZDNet Scala da Scott Fulton
×
scale-edge-promo-01.jpg
Questo può sembrare un argomento correlato, ma non è così: il Nostro pianeta il clima è volubile come in quanto è grazie a piccole modifiche per una parte dell’ecosistema può avere conseguenze a cascata su tutto il resto. Così, una riduzione dello strato di ozono a causa di sostanze chimiche inquinanti per innescare il sole per riscaldare gli oceani ad un tasso maggiore, cambiando la direzione delle correnti d’aria e causando più turbolento tempeste. Gli effetti di una discesa di aria dal Canada e aria in aumento dal Golfo del Messico, sono amplificati.
Se un centro dati topologia è come la superficie del nostro pianeta, quindi piccoli cambiamenti in un aspetto può avere effetti a cascata in tutta la struttura. Quindi, se determinati processori sembrano funzionare meglio di altri, per esempio, il carico di lavoro orchestrators può li preferisco i processori in altri server. Come risultato, i server con il preferito processori ottenere più caldo prima. Correnti d’aria all’interno della struttura cambiamento, in quanto espulso più caldo dell’aria può rimanere intrappolati nelle tasche dove l’aria non circola. Ironia della sorte, questi aumenti di temperatura di impatto sottoutilizzate server, rendendo più difficile per loro di elaborare i dati e di espellere il calore.
Facebook è tra le poche organizzazioni con il potere di acquisto di specificare esattamente come i suoi data center sono progettati, costruiti e gestiti, fino al grado di cemento utilizzato nelle loro fondamenta.
Ma con la pubblicazione di queste specifiche, Facebook sfruttato il suo potere come un top-of-mente, marchio universalmente riconosciuto per impostare le regole per un intero mercato della tecnologia, che è orientata esclusivamente alla hyperscale data center, e uno che non sarà esclusiva per Facebook. In questo mercato, se siete in qualsiasi tipo di fornitore di apparecchiature (server, moduli di potenza, cavi di rete, pannelli, piastrelle, estintori) che il tuo attrezzatura era meglio essere prodotta a queste specifiche, altrimenti sei passibile di essere ignorato.
Deve leggere:
Top fornitori di cloud 2019: AWS, Microsoft Azure, il Cloud di Google, IBM rende ibrido spostare; Salesforce domina SaaS
Hyperscale a livello di server
Questo è dove Facebook ha il potere di definire il mercato, o almeno portare alla definizione di esso, l’impatto della tecnologia digitale come un intero. Non solo Facebook specificare l’architettura e componenti di un hyperscale data center, ma guidando la creazione di un Progetto Open Compute (OCP), ha proposto un nuovo set di regole per hyperscale server — il cavallo di battaglia di grandi centri dati ovunque.
Intendiamoci, Facebook non ha sollevato la barra per i gestori di data center’ le aspettative. Infatti, abbassando il bar era essenzialmente il punto. Mentre produttori come Dell, HPE, Lenovo e IBM sono stati di marketing, il top della linea, state-of-the-art sistemi su misura per le applicazioni più intense — come enterprise-grade supercomputer — OCP re-cast server bit giocatori in un grande ensemble. “White box” i server sono ancora chiamati, sono così mediocre che è discutibile non meritano di nomi di marca.
Al momento OCP è stata fondata, è apparso nessuno di questi produttori poteva permettersi di perdere anche uno solo di questi hyperscale operatori come il suo cliente. Tale perdita costituirebbe un notevole percentuale dei suoi ricavi, e, a sua volta, si riflettono negativamente sul suo valore azionario. D’altra parte, mettere a tacere Facebook centrale, implicita argomento, che la massa server sono più costo-efficaci su larga scala, chiamato in causa, questi produttori di tutto il server proposta di valore per il general enterprise. Se un server PowerEdge, ProLiant, ThinkSystem, o la Potenza del Server è solo un ingranaggio di un’enorme ruota, allora cosa importa se sono stati i migliori cog in tutta la rotazione? Dove è il ritorno sull’investimento per un premio che non può essere misurato?
Un indizio per una risposta arriva da eBay. Nel 2013 l’e-commerce e aste di servizio stipulato un accordo di partnership con Dell, rendendo eBay preferito produttore di ciò che veniva chiamato “densità di server ottimizzati” per eBay hyperscale strutture.
EBay proprio marchio ad un server presso il proprio data center.
(Immagine per gentile Concessione di eBay)
×
ebay-servers.jpg
Lo scorso settembre, tuttavia, sostenendo l’urgenza di “ri-platform nostra infrastruttura” per consentire una più granulare gestione del carico di lavoro utilizzando strumenti open source, eBay fatto un’inversione a U, in modo da essere proprio server designer da quel punto in avanti. Ora, come parte di un tre-anno revisione del piano, la società sta implementando la sua propria casella bianca server, presumibilmente l’unico personalizzato parte di eBay maschere.
Già nel 2014, Data Center Knowledge accertato che le differenze di costo tra OCP-compatibile scatola bianca server e componenti di marca avrebbero sostituito, era di essere percepito dalle imprese, in quanto non abbastanza da giustificare sacrificare le relazioni di trust con il loro attuali fornitori. Ora, eBay è il seguente Facebook, progettazione molto standardizzato server per soddisfare il suo hyperscale esigenze, e di outsourcing di propria produzione ad un design originale del produttore (ODM). Evidentemente, eBay riconosce anche ulteriori risparmi sfruttando il suo potere come un hyperscale fornitore di servizi, per implementare la propria architettura di micro-e macro-scala.
Ma che è un livello di potere contrattuale che semplicemente non si scala verso il basso. Pochi i clienti aziendali hanno la competenza a portata di mano per rendere il server decisioni di progettazione per se stessi; per questo motivo essi si basano sulla fiducia produttori che continuano a promuovere “end-to-end di soluzioni”.
Tuttavia, le grandi imprese sono insistere su una qualche forma di flessibilità nella gestione del carico di lavoro e di asset management, che hyperscalers hanno ritagliato per se stessi. È uno dei motivi perché Kubernetes è cresciuta così rapidamente in popolarità; si tratta di un carico di lavoro di orchestrazione sistema derivato da “Borg” che i tecnici di Google costruito in-house.
Così hyperscale design, magari a singhiozzo, ha avuto un impatto misurabile sulla architettura di server commercializzati da altre organizzazioni di hyperscale fornitori di servizi. Ma gli ingegneri attenzioni di recente sono stati allontanati dalla centralizzato strutture, verso distribuito centri per le operazioni in località remote — quei luoghi sulle frontiere del trattamento dei dati e la consegna chiamato “the edge.”
Deve leggere:
Bordo computing: Lo stato di prossima trasformazione
È “altamente scalabile:” solo un’altra parola per “Hyperconverged?”
No. Essi hanno lo stesso prefisso, che è il loro principale somiglianza. Hyperconvergence (HCI) si riferisce alla capacità di un data center infrastructure management (DCIM) sistema per riunire le risorse da più server (di calcolo, di memoria, storage, networking) e delegare le risorse per i singoli carichi di lavoro. È un modo di pensare a tutto un server contribuisce alla data center come se fossero liquidi, invece di essere rinchiusi in scatole separate.
Un hyperscale data center può fare buon uso di server che capita di impiegare HCI. Ma HCI non è un requisito assoluto per rendere i data center efficienti nell’utilizzo di spazio, alimentazione e raffreddamento.
Deve leggere:
Che cosa è hyperconvergence? Ecco come funziona e perché è importante
“Hyperscale” significa solo “un grande, grande nuvola?”
No. Concesso, una piattaforma cloud è un mezzo per la distribuzione di carichi di lavoro flessibile su un gruppo di server in cluster. E sì, le risorse su quei server può essere composto in alto o in basso, che è una caratteristica che hyperscale operatori della domanda.
Ma una piattaforma cloud come VMware Cloud OpenStack Foundation o è destinato agli amministratori di gestire i requisiti di risorse (con l’occasionale risorsa desiderio, che sono imprevista e soggetta a frequenti cambiamenti. Gli amministratori possono entrare nel sistema e apportare modifiche o nuove richieste di provisioning. Un hyperscale ambiente, invece, è orientata per coerenza di automazione. Se è in esecuzione correttamente, non c’è bisogno di “andare” e apportare le modifiche; sarà la gestione di carichi di lavoro il prossimo anno il molto stesso modo in cui sei stato gestito quest’anno. Una delle Governo la necessità di un servizio di cloud computing, come pubblicato dal NIST istituto di Rep. di Commercio, è che le sue risorse può essere fornito tramite un portale self-service.
Quindi, anche se Amazon pubblico di servizi certamente qualificarsi come una nuvola, la sua hyperscale le operazioni per la gestione del cloud sono una sostanza diversa del tutto.
Deve leggere:
Progetto Open Compute: verifica della sua influenza nel data center, l’infrastruttura di cloud computingCome Amazon e VMware sono la costruzione di una “nuvola” per entrambe le piattaforme
Colocation si estende hyperscale per l’impresa
C’è stato un tempo non molto tempo fa, quando un enterprise data center è stato presumibilmente si trova da qualche parte all’interno dell’impresa. Per molte organizzazioni, un centro dati possono ancora essere situato in posizione centrale locale, o può contare su diverse strutture distribuite su più rami.
Ma in un moderno ambiente di business, di colocation è un’opzione estremamente interessante. Una colocation accordo, come qualsiasi altro affare immobiliare, è un contratto di locazione su un’area di spazio all’interno del locatario i servizi del centro. Esso consente a un inquilino per la distribuzione dei propri impianti in un edificio che è in genere di grandi dimensioni, molto ben gestito, fortemente protetto e ben alimentato e raffreddato.
Con la sua vicinanza a Washington, DC, Ashburn è diventata la più competitiva posizione per servizi di data center. Nel settembre 2018, ho co-prodotto un webinar con Data Center Knowledge e RagingWire Data center, che è la costruzione di colo strutture in Ashburn, in Virginia, tra gli altri luoghi. RagingWire è un colo provider per le imprese che hanno una propria attività, e che hanno bisogno di una posizione protetta, con connettività avanzata per sfruttare in maniera ottimale.
In questo webinar, ho presentato questo schema interno di uno dei Ashburn complesso di edifici di recente costruzione. Chiamato Ashburn VA3, è compartimentato in dati cosiddetti volte, ognuna delle quali è orientata per diversi di alimentazione e di raffreddamento configurazioni basate su requisiti del carico di lavoro.
Vista scorciata di RagingWire Ashburn, in Virginia, VA3 struttura.
(Immagine Per Gentile Concessione RagingWire Centri Dati)
×
ragingwire-ashburn-va3.jpg
Non è esattamente Facebook architettura in cui l’intero complesso è sostanzialmente omogenea. E solo di 245.000 metri quadrati, non è proprio il colosso big Facebook “H” può essere. Ma tenendo conto che i vari inquilini saranno portando in una varietà di eterogenea attrezzature, RagingWire non impiegare un tipo di hyperscale di ispirazione metodo di controllo dello spazio, e di automatizzare la distribuzione del flusso d’aria e la potenza all’interno di questi spazi.
Ashburn VA3, e l’altro RagingWire edifici che la circondano, rappresentano hyperscale metodologia che è stato portato giù un po ‘ più vicino alla Terra. Perché i suoi principi di costruzione, sono rigidamente specificato e più volte si pratica, la società può costruire un impianto in un lasso di tempo più vicino a otto mesi di due o tre anni. Per la gestione delle pratiche e metodologie che si applicano a un edificio può essere facilmente regolato da applicare per gli altri.
Così qui è dove hyperscale architettura e principi di soddisfare l’impresa, fornendo alle aziende un modo per ospitare sia le infrastrutture e i carichi di lavoro in modo derivato dalle norme stabilite da Facebook, Amazon AWS, e gli altri in alto a livello di spazio cloud. Anche se la nostra attenzione è spesso incentrata su dispositivi palmari come il centro di conversazione in tech di oggi, l’attuale sede dell’attività di elaborazione è il hyperscale data center-che è diventare più grandi e più piccoli. La storia può ancora registrare il hyperscale struttura, come il dispositivo che definisce la tecnologia del 21 ° secolo.
Scopri di Più — Dalla CBS Interactive Network
Ciò che la vostra azienda potrà conoscere i dati centri di i giganti della tecnologiaHyperscale dati centri di alimentare la crescita dei ricavi per le imprese di stoccaggio fornitoriMaggior parte dei data center sono troppo inefficiente, dice Supermicro
Altrove
Hyperscale Piattaforme Cloud Cambiato la Progettazione di Data Center e la Funzione. Ecco Come , Quando e Quanto Liquido di Raffreddamento Diventa Necessario nel Data Center Hyperscale Piattaforme Cloud Dominato il Data Center di Conversazione nel 2018
Argomenti Correlati:
CXO
Hardware
Server
Networking
Archiviazione
Cloud