Comment hyperscale centres de données sont en train de modifier tout ÇA

0
378

Cloud les coûts de migration sont immenses entreprises
ZDNet Larry Dignan dit TechRepublic de Karen Roby sur les problèmes auxquels les entreprises sont confrontées en essayant de déplacer vers le cloud.

L’expression “centre de données” est, dès le début, une présomption. Il rappelle une époque où une entreprise back-office systèmes d’information ont été principalement consacrée au stockage des données, et ont été bricolé dans un sous-sol ou à l’emplacement placard. “Les infrastructures”, comme un système d’égout ou d’une fondation d’une autoroute sous les nids-de-poule, était quelque chose que personne n’était censé le voir ou de l’attention.

Aujourd’hui, toutes ces hypothèses ont été bouleversées. Une entreprise de l’infrastructure informatique est composé de la puissance de calcul et de la connectivité, en outre, le stockage de données. Et comme l’entreprise elle-même, il a une tendance naturelle à devenir distribués.

facebook-fort-worth-data-center-03.jpg

À l’intérieur de Facebook est de Fort Worth centre de données complexes.

(Image: le Tchad M. Davis pour Facebook)

×

facebook-fort-worth-data-center-03.jpg

Un hyperscale centre de données est de moins en moins d’entrepôt et de plus en plus comme un centre de distribution, ou de ce que le commerce de détail d’Amazon pourrait appeler un “centre de traitement.” Bien qu’aujourd’hui, ces installations sont très grandes, et sont exploités par de très grands fournisseurs de services, hyperscale est pas vraiment à propos de taille, mais plutôt de l’évolutivité.

Imaginez un instant une usine où tous les composants impliqués dans la fabrication d’un produit, y compris le convoyeur qui apporte les pièces sur la ligne de montage, ont été modulaire dans une petite zone. Vous lisez bien: une petite zone. Maintenant, imaginez la fonctionnalité de ce module de devenir aussi efficace et fiable que vous pourriez développer votre rendement de façon exponentielle tout simplement en se connectant plus de ces modules dans un linéaire de la ligne. Ou une ferme où, si vous double votre la superficie, de plus que doubler votre rendement.

Hyperscale est l’automatisation appliquée à un secteur d’activité qui était censé être le sujet de l’automatisation pour commencer. C’est sur les organisations qui se trouvent être grand, à la saisie de la journée et prendre le contrôle de tous les aspects de leur production. Mais c’est aussi à propos de la diffusion de hyperscale pratiques dans l’ensemble du centre de données de bâtiments, et non pas uniquement eBays et les Amazones de la le monde, mais les petits joueurs, les petits gars, les gens en bas de la rue. Vous savez à qui je fais allusion: les entreprises pharmaceutiques, les sociétés de services financiers, et les fournisseurs de services de télécommunications.

Un seul fournisseur dans le centre de données de l’équipement de l’espace a récemment appelé hyperscale “trop grand pour la plupart des esprits à envisager.” L’évolutivité a toujours été à propos de la création d’opportunités pour faire de petites choses à l’aide de ressources qui englobent une très grande échelle.

Faut lire:

Centres de données: L’avenir est défini par le logicielOnt hyperscale de voyage: Comment le centre de données révolution commence dans un toolshed

Que font les “hyper” et “échelle” de pièces?

Plus précisément, un hyperscale centre de données accomplit les tâches suivantes:

Maximise l’efficacité du refroidissement. La plus importante des frais d’exploitation dans la plupart des centres de données dans le monde entier, plus que d’alimenter les serveurs — alimente le climat de systèmes de contrôle. Un hyperscale structure peut être partitionné pour compartimenter à haute intensité de calcul des charges de travail, et de concentrer la puissance de refroidissement sur les serveurs hébergeant ces charges de travail. Pour la charge de travail, un hyperscale architecture optimise la circulation de l’air tout au long de la structure, en s’assurant que l’air chaud circule dans une direction (même si c’est une serpentine) et souvent de récupérer de la chaleur à partir de ce débit des gaz d’échappement en vue du recyclage.Alloue de l’énergie électrique dans des colis séparés. Dans des établissements conçus pour être occupé par plusieurs locataires, les “blocs” sont attribués comme lots dans un lotissement. Ici, les racks qui occupent ces blocs sont attribués un certain nombre de kilowatts-ou, plus récemment, les fractions de mégawatts-à partir de la source d’alimentation principale. Lorsqu’un locataire loue un espace à partir d’un fournisseur de colocalisation, que l’espace est souvent formulée en termes de nombre de racks ou en pieds carrés, mais kilowatts. Une conception qui est plus influencé par hyperscale permet de s’assurer que les kilowatts sont disponibles lorsqu’un client a besoin d’eux.Assure la disponibilité de l’électricité. De nombreux centres de données des entreprises sont équipées avec des sources d’alimentation redondantes (ingénieurs appel de cette configuration 2N), souvent soutenue par une source secondaire ou d’un générateur (2N + 1). Un hyperscale installation peut utiliser l’un de ces configurations ainsi, bien que ces dernières années, la charge de travail systèmes de gestion de la ont fait, il est possible de reproduire la charge sur les serveurs, rendant les charges de travail redondant plutôt que la puissance, réduction de la facture d’électricité. En conséquence, les nouveaux centres de données ne nécessitent pas de tout ce que la redondance de l’alimentation. Ils peuvent s’en tirer avec seulement N + 1, pour sauver non seulement les coûts d’équipement, mais les coûts de construction.Les soldes de la charge sur les serveurs. Parce que la chaleur a tendance à se répandre, une surchauffe serveur peut facilement devenir une nuisance pour les autres serveurs et le réseau d’engins dans son voisinage. Lorsque les charges de travail et l’utilisation du processeur sont correctement contrôlés, les machines virtuelles et/ou les conteneurs de logement à haute intensité de charges de travail peuvent être déplacés ou réparti entre les processeurs qui sont mieux adaptés à ses fonctions, ou qui sont tout simplement pas être utilisé à peu près autant pour le moment. Même la distribution de la charge de travail est directement corrélée à la réduction de la température, de sorte que la façon dont un centre de données gère son logiciel est tout aussi important que la façon dont il maintient des systèmes de soutien.

Quelle est la taille de “taille?”

facebook-fort-worth-data-center-01.jpg

À l’intérieur de Facebook est de Fort Worth centre de données complexes

(Image: le Tchad M. Davis pour Facebook)

×

facebook-fort-worth-data-center-01.jpg

Ce qui fait une grande facilité de hyperscale n’est pas sa taille, mais plutôt de la façon dont sa conception permet à ses locataires de faire un usage optimal de ses ressources à l’intérieur de cette taille. AFCOM, l’association pour le centre de données de professionnels, a développé une métrique permettant de distinguer entre les classes d’installations de centre de données. Il compte le nombre de racks à l’installation d’hôtes, et aussi le nombre de pieds carrés (ou mètres carrés) est consacré uniquement des composants (son “espace blanc”). Ensuite, il correspond à la fois à des numéros contre le tableau ci-dessous, et choisit la métrique nom pour le numéro de rang le plus élevé. Par exemple, une installation de 120 racks dans plus de 6 000 pieds carrés d’espace blanc serait considéré comme “Moyen”, depuis 6,000 relève de la plus haute gamme.

afcom-data-center-size-metrics.jpg

(Photo: Courtoisie AFCOM)

×

afcom-data-center-size-metrics.jpg

Pour vous donner un indice de référence, l’industrie du commerce de détail de 2017 estimation de la moyenne d’espace de plancher pour les actifs NOUS supermarchés était d’environ 47 000 pieds carrés.

Si vous avez déjà vu ou participé à la construction d’un supermarché, vous savez bien que tout point de la construction d’un plus grand commerce de détail est de tirer parti autant d’efficacité que possible afin de maximiser la rentabilité. Ce n’est certainement pas moins cher à construire, la puissance, le refroidissement, ou de la chaleur d’un grand bâtiment, mais la totalité de ces coûts pourrait être plus faible par pied carré ou pied cube. Ils ne seront pas inférieurs, toutefois, si le bâtiment n’est pas construit avec des rendements et des meilleures pratiques en place. En d’autres termes, si vous êtes à rendre le bâtiment plus juste pour être plus grand, vous n’êtes pas en faisant un bon usage de l’un quelconque des innée des économies d’échelle d’un plus grand facteur de forme offre.

L’usine fonctionne d’une manière similaire. Si vous concevez un plus grand espace de l’usine avec des rendements à l’esprit, ces gains d’efficacité vont se traduire par des coûts d’exploitation réduits et une plus grande rentabilité pour tout produit là.

Un centre de données est une information de l’usine. Il produit toutes les ressources et les fonctionnalités que vous utilisez sur le côté opposé de la connexion Internet à partir de votre navigateur ou application pour smartphone.

La synergie du Groupe de Recherche, qui analyse les entreprises dans les services de centre de données de l’espace, définit un hyperscale centre de données comme un grand complexe (au moins) qui est exploité par un “hyperscale fournisseur.” Par cela, l’entreprise s’entend d’une organisation qui gère ses grandes installations à l’aide de la hyperscale principes énumérés ci-dessus. En janvier dernier, la société a estimé qu’à la fin de l’année dernière, le monde a eu un grand total de 430 hyperscale installations, 40% étaient situés aux états-unis.

facebook-fort-worth-data-center-07.jpg

Un artiste de la conception du Bâtiment 3 de Facebook est de Fort Worth data center, une fois terminé.

(Photo: Courtoisie Facebook)

×

facebook-fort-worth-data-center-07.jpg

Ici est le modèle idéal d’une moderne hyperscale centre de données: Situé dans le Fort Worth, au Texas et a officiellement ouvert en Mai 2017, Facebook cinquième hyperscale installation comprend à présent le Bâtiment en forme de H 3, qui est devenu le modèle pour plusieurs projets de construction à 10 successives installations dans le monde entier. Lorsque achevé à la mi-2020, par les estimations actuelles, le complexe comprendra cinq bâtiments, avec un total collective de l’espace qui doit eclipse 2,5 millions de pieds carrés.

Bien que Facebook n’a pas fourni une estimation officielle, les journalistes de parler avec les ingénieurs ont réuni que ce bâtiment s’étend sur total de 450 000 pieds carrés, certainement considérée comme une AFCOM “Mega”. Bien sûr, une fraction de ce que l’espace est pour lui d’équipement (espace blanc), tandis qu’un autre gros morceau est pour le pouvoir et le soutien, et le centre de liaison est de l’espace de bureau.

Au sein de chaque pilier de la “H” sont modulaires combinaisons de distribution principal des cadres (MDF), également appelé de données salles. Ces modules s’étendre dans les deux directions à partir de la construction de la distribution frame (BDF) dans le centre de l’empilement sur un autre comme le côté des blocs de construction. La BDF contient les câbles de télécommunications reliant ces données salles pour le monde extérieur.

facebook-data-hall.jpg

La mise en page standard pour un segment de “H” dans un Facebook hyperscale centre de données.

(Photo: Courtoisie Facebook)

×

facebook-data-hall.jpg

Déjà, vous pouvez voir le but réel de hyperscale architecture: Pour le rendre possible de gérer l’espace physique, et la physique des systèmes d’habiter l’espace, avec les mêmes niveaux d’efficacité et d’automatisation consacré à la gestion des logiciels.

Faut lire:

Facebook de la next-gen réseau de centre de données débuts dans Altoona, Iowa

Facebook précise hyperscale, en redéfinissant le centre de données

Dans tout marché, le consommateur est en mesure d’acheter en gros, généralement en vrac, est souvent celui qui a le plus de pouvoir d’achat. Facebook, Google, Amazon, eBay, et Microsoft sont reconnus comme les organisations qui ont déployé le plus — et, dans un certain sens, le plus hyperscale centres de données.

Pourtant, Facebook a été le plus fort et le plus autoritaire de la force dans l’établissement de lignes directrices pour ce qui hyperscale devrait être, dans l’espoir que d’autres vont suivre son exemple et d’aider à réduire les coûts. En 2014, Facebook a publié ses spécifications de l’architecture des centres de données qu’il construit, et l’assemblée de son matériel informatique. Il a dit au monde ce qu’il achète et pourquoi, afin que les fabricants devraient se rendre au travail du bâtiment.

Bien que Facebook renonce à invoquer le mot “hyperscale,” de nombreux équipements de vendeurs qui prétendent offrir des composants pour hyperscale centres de données, les traiter Facebook de la déclaration officielle de leur définition. Voici comment Facebook est hyperscale tissu:

Des commutateurs de réseau en couches et ventilées. Facebook du réseau principal bloc de construction est une gousse qui remplace le cluster dans les configurations typiques. De la taille d’un pod est limitée à 48 racks de serveurs — pas plus, pas moins, avec chaque rack équipé avec son habituel top-of-rack switch (TOR), mais avec toutes les 48 interrupteurs étant servi tour à tour par 4 haut-niveau des dispositifs appelés commutateurs de structure. C’est le tissu qui fait en sorte que chaque serveur dans le pod est également et de manière redondante relié à l’ensemble du réseau. Ceci, à son tour, permet à un système de gestion de la route des charges de travail pour les serveurs les mieux adaptés pour eux.

facebook-network-topology.jpg

Un 3D diagramme de Facebook est hyperscale la topologie du réseau.

(Photo: Courtoisie Facebook)

×

facebook-network-topology.jpg

Réseau des gousses sont inter-connectés. Chaque commutateur est numéroté (1, 2, 3, 4), et chaque numéro correspond à un niveau supérieur de la couche de commutateurs qui forment ce que Facebook appelle une “colonne vertébrale” de l’avion. Ici, chaque épine commutateur relie à 48 commutateurs de structure — encore une fois, pas plus, pas moins. C’est absolument fixe la nature de la position des commutateurs qui s’assure qu’aucun point du réseau est “dépassé” — que la bande passante du trafic entrant n’est jamais plus grande que pour le trafic de sortir, à moins que le système administratif perçoit un besoin à court terme d’un tel arrangement, et peut préparer le tissu de façon appropriée.La construction et la mise en page sont basés sur les gousses. Lorsque le centre de données est construit, le support physique pour tous les câbles réseau et connexions d’alimentation que les gousses de besoin, ainsi que les gousses qui peut encore être construit à une date ultérieure-sont intégrés dans la BDF. Ainsi, un hyperscale établissement est un composant d’un réseau mondial, comme un appareil électronique qui arrive à prendre plus de 100 000 pieds carrés de l’espace.Un serveur est un serveur est un serveur. Au sein de ce tissu, chaque serveur est un bare-bones, les briques. Comme un lecteur de disque dur en RAID, il est attendu à l’échec, et aucun serveur n’est plus spécial qu’un autre. Quand elle ne parviennent pas, ou même lorsque son rendement tombe en dessous de la hauteur, il est hors service et remplacé.

Donc, si un module est exactement 48 commutateurs de structure, et une colonne vertébrale a exactement 48 de ses propres commutateurs, vous pourriez vous demander, où est-ce tant vantée de l’évolutivité censé être? C’est dans la manière dont les ressources au sein de cette rigides, homogénéisé les infrastructures sont utilisées.

Pourquoi automatisation des centres de données, c’est comme le changement climatique

Typique d’un centre de données d’entreprise, de l’équipement, 10 ans ou même plus âgés co-existe avec des produits frais de composants à partir du plancher de l’usine. Comme un résultat, sa topologie du réseau tend à acquérir une certaine “texture”, où certains segments de faire mieux que les autres.

scale-edge-promo-01.jpg

Lire Ont hyperscale de voyage: Comment le centre de données révolution commence dans un toolshed — la première édition de ZDNet Échelle par Scott Fulton

×

scale-edge-promo-01.jpg

Cela peut sembler sans lien avec le sujet, mais il n’est pas vraiment: du climat de Notre planète est aussi volage que c’est parce que de petits changements à une partie de l’écosystème peut avoir des impacts en cascade sur le reste. Ainsi, une réduction de la couche d’ozone due aux polluants chimiques de déclencher le soleil pour réchauffer les océans à un rythme plus rapide, le changement de direction des courants d’air et de provoquer plus turbulent des tempêtes. Les effets de la descente de l’air du Canada et de la hausse de l’air dans le Golfe du Mexique, sont magnifiés.

Si un centre de données de topologie est comme la surface de notre planète, puis de petits changements dans un aspect peut avoir des effets en cascade sur l’ensemble de l’installation. Donc, si certains processeurs semblent plus performants que d’autres, par exemple, la charge de travail orchestrateurs peut préférer sur les processeurs en d’autres serveurs. En conséquence, les serveurs avec le préféré des processeurs obtenir plus chaud plus tôt. Des courants d’Air à l’intérieur de la facilité de changement, comme l’expulsion de l’air plus chaud peut se retrouvent piégés dans des poches où l’air n’est pas circulante autant de. Ironiquement, ces augmentations de la température de l’impact de la sous-utilisé serveurs, rendant plus difficile pour eux de traiter les données et expulser la chaleur.

Facebook est parmi les rares organisations avec le pouvoir d’achat de spécifier exactement comment ses centres de données sont conçues, construites et exploitées, jusqu’au grade de ciment utilisé dans leurs fondements.

Mais par la publication de ces spécifications, Facebook a tiré profit de sa puissance en tant que tête de liste, de marque reconnue mondialement pour définir les règles pour l’ensemble d’un marché de la technologie-qui est conçu exclusivement autour de la hyperscale centre de données, et qui ne sera pas exclusif à Facebook. Dans ce marché, si vous êtes tout type de fournisseur de matériel (serveurs, modules d’alimentation, des câbles réseau, des panneaux d’obturation, carreaux de sol, des extincteurs d’incendie), alors votre équipements avaient mieux être produites à ces spécifications, sinon vous vous exposez à être ignoré.

Faut lire:

Haut les fournisseurs de cloud 2019: AWS, Microsoft Azure, Google Cloud, IBM offre hybride déplacer; Salesforce domine SaaS

Hyperscale au niveau du serveur

C’est là que Facebook a le pouvoir de définir le marché, ou à tout le moins conduire à la définition de celui-ci, les impacts de la technologie numérique dans son ensemble. Non seulement Facebook spécifier l’architecture et de composants pour un hyperscale centre de données, mais par le fer de lance de la création de l’Open Compute Project (OCP), il a mis en avant un nouvel ensemble de règles pour hyperscale serveurs, les chevaux de bataille de grands centres de données partout.

Rappelez-vous, Facebook n’a pas hausser la barre pour les gestionnaires de centre de données et des attentes. En fait, l’abaissement de la barre a été essentiellement le point. Alors que les fabricants tels que Dell, HPE, Lenovo et IBM ont été la commercialisation de leurs haut-de-ligne, l’état de l’art des systèmes sur mesure pour les applications les plus intensives — comme au niveau de l’entreprise supercalculateurs — OCP a remettre les serveurs en tant que peu de joueurs dans un énorme ensemble. “Boîte blanche” des serveurs, comme on les appelle encore, sont tellement banale qu’on peut soutenir qu’ils ne méritent pas de noms de marque.

Au moment de l’OCP a été fondée, il est apparu qu’aucun de ces producteurs pouvaient se permettre de perdre encore un de ces hyperscale les opérateurs de son client. Une telle perte constituerait un mesurables pourcentage de ses revenus, et à son tour, avoir un impact négatif sur sa valeur du stock. D’autre part, d’acquiescer à Facebook central, implicite argument-que la plupart des serveurs sont plus rentables à grande échelle — remis en cause ces producteurs serveur entier proposition de valeur pour l’ensemble de l’entreprise. Si un PowerEdge, ProLiant, ThinkSystem, ou de la Puissance du Serveur est qu’un rouage dans une énorme roue, alors qu’en serait-il si c’était le meilleur de la cog dans l’ensemble de la rotation? Où est le retour sur investissement pour une prime qui ne peut pas être mesurée?

Un indice de la réponse vient de eBay. En 2013, le e-commerce et de la vente aux enchères de service conclu un accord de partenariat avec Dell, rendant eBay préféré le producteur de ce qui a été appelé “densité de serveurs optimisés” pour eBay hyperscale installations.

ebay-servers.jpg

EBay de marque propre serveurs de l’exploitation dans son propre centre de données.

(Photo: Courtoisie eBay)

×

ebay-servers.jpg

En septembre dernier, toutefois, affirmant la nécessité urgente pour les “plates-formes de nos infrastructures”, pour permettre à plus granulaire de la charge de travail de gestion à l’aide d’outils open source, eBay a fait un demi-tour, en choisissant d’être son propre serveur designer à partir de ce moment. Maintenant, pour une durée de trois ans, la refonte du plan de, la société met en œuvre son propre boîte blanche serveurs, sans doute le seul personnalisés partie d’eBay en plaques.

Dès 2014, Centre de Données de Connaissances constaté que les différences de coûts entre l’OCP conformes blanc boîte de serveurs et le nom de marque des composants de remplacer, a été perçue par les entreprises comme pas assez pour justifier de sacrifier les relations de confiance qu’ils entretiennent avec leurs fournisseurs actuels. Maintenant, eBay est à la suite Facebook, la conception très standardisée serveurs pour s’adapter à son hyperscale besoins, et l’externalisation de leur production à un design original fabricant (ODM). De toute évidence, eBay reconnaît même plus des économies de coûts en tirant parti de son pouvoir en tant que hyperscale prestataire de services, pour mettre en œuvre sa propre architecture à micro-échelle ainsi que de la macro-échelle.

Mais c’est un niveau de pouvoir de négociation qui n’est tout simplement pas l’échelle vers le bas. Peu de clients de l’entreprise ont de l’expertise sur la main pour la conception du serveur de décisions pour eux-mêmes; c’est pourquoi ils s’appuient sur la confiance des fabricants qui continuent à promouvoir le “bout en bout des solutions.”

Néanmoins, les grandes entreprises sont en insistant sur une certaine forme de souplesse dans la gestion des charges de travail et de gestion d’actifs qui hyperscalers ont taillé pour eux-mêmes. C’est une des raisons pourquoi Kubernetes a augmenté si rapidement en popularité; c’est une charge de travail d’orchestration système dérivé de la “Borg” système de Google ingénieurs construit dans-maison.

Donc hyperscale de conception, peut-être par à-coups, a eu un impact mesurable sur l’architecture des serveurs commercialisés à des organismes autres que hyperscale fournisseurs de services. Mais les ingénieurs de l’attention ont récemment été tourné à partir des installations centralisées, vers distribué des centres d’opérations dans des endroits éloignés, ceux des lieux sur les frontières de traitement et distribution de données appelé “le bord.”

Faut lire:

Bord de l’informatique: L’état de la prochaine transformation de l’

Est “Hyperscale” juste un autre mot pour “Hyperconverged?”

Pas de. Ils ont le même préfixe, qui est leur principale similitude. Hyperconvergence (HCI) se réfère à la possibilité pour un data center infrastructure management (DCIM) du système à mettre en commun les ressources de plusieurs serveurs (calcul, mémoire, stockage, réseaux) et de délégué aux ressources pour les charges de travail individuelles. C’est une façon de penser à tout un serveur contribue à le centre de données comme si elles étaient des fluides, au lieu d’être enfermés dans des boîtes séparées.

Un hyperscale centre de données peut faire bon usage de serveurs qui se trouvent à employer HCI. Mais HCI n’est pas une exigence absolue pour la fabrication de centres de données efficaces dans leur utilisation de l’espace, de puissance et de refroidissement.

Faut lire:

Qu’est-ce que hyperconvergence? Voici comment il fonctionne et pourquoi il est important de

N’ “hyperscale” juste “un gros, gros nuage?”

Pas de. Accordé, une plate-forme de cloud est un moyen pour le déploiement flexible des charges de travail sur un groupe de serveurs en cluster ensemble. Et oui, les ressources sur ces serveurs peut être composé vers le haut ou vers le bas, ce qui est une fonctionnalité qui hyperscale opérateurs de la demande.

Mais une plate-forme de cloud tels que VMware Cloud Fondation ou OpenStack est conçu pour les administrateurs d’entreprise pour gérer les besoins en ressources (le long avec des ressources désir) qui sont imprévus et sujet à de fréquentes modifications. Les administrateurs peuvent entrer dans le système et de faire des ajustements ou de nouvelles demandes de configuration. Un hyperscale de l’environnement, en revanche, est conçu pour l’automatisation cohérente. Si il fonctionne correctement, il n’y a pas besoin de “aller” et de faire des changements; il sera de gérer les charges de travail de l’année prochaine, beaucoup de la même manière qu’ils sont gérés de cette année. Un du Gouvernement AMÉRICAIN en matière de services d’informatique en nuage, tel que publié par le NIST, l’institut de l’Dept. de Commerce, c’est que ses ressources peut être configuré à l’aide d’un portail en libre-service.

Ainsi, bien que Amazon services au public certainement qualifier comme un nuage, son hyperscale des opérations de la gestion du cloud sont une substance totalement différente.

Faut lire:

Open Compute Project: mesurer son influence dans un centre de données, le cloud computing infrastructureComment Amazon et VMware sont la construction d’un cloud pour les deux plates-formes

La Colocation s’étend hyperscale de l’entreprise

Il fut un temps pas si lointain où un centre de données d’entreprise était vraisemblablement situé quelque part au sein de l’entreprise. Pour beaucoup d’entreprises, un centre de données peut encore être situé sur les lieux, ou il peut s’appuyer sur plusieurs installations réparties sur plusieurs branches.

Mais dans une entreprise moderne de l’environnement, de la colocation est très attractif. Une colocation accord, comme toute autre transaction immobilière, est un contrat de location sur une zone de l’espace à l’intérieur du locataire installations de centre de données. Il permet à un locataire de déployer ses propres équipements dans un bâtiment qui est généralement grand, très bien géré, fortement sécurisée, et bien alimenté et refroidi.

Avec sa proximité à Washington, DC, Ashburn est devenu le plus compétitif emplacement pour les services de centre de données. En septembre 2018, j’ai co-produit un webinaire avec le Centre de Données de Connaissances et RagingWire Centres de Données, qui est la construction de colo installations dans Ashburn, en Virginie, parmi d’autres endroits. RagingWire est une colo fournisseur pour les entreprises qui disposent de leurs propres biens, et besoin d’un endroit sûr à forte connectivité à leur utilisation optimale.

Dans ce webinaire, j’ai présenté ce schéma à l’intérieur de l’un des Ashburn du complexe récemment construit des bâtiments. Appelé Ashburn BA3, il est compartimenté dans la soi-disant données voûtes, dont chacun est adapté pour différents alimentation et de refroidissement des configurations sur la base de la charge de travail requise.

ragingwire-ashburn-va3.jpg

Vue de la jaquette de RagingWire de Ashburn, en Virginie, BA3 installation.

(Photo: Courtoisie RagingWire (Centres De Données)

×

ragingwire-ashburn-va3.jpg

Ce n’est pas exactement Facebook de l’architecture où l’ensemble du complexe est essentiellement homogénéisé. Et à un simple de 245 000 pieds carrés, c’est pas tout à fait le colosse qu’une grosse Facebook “H” peut être. Mais tenant compte du fait que les différents locataires sera de les amener dans une variété de caractère hétérogène de l’équipement, RagingWire n’emploient une sorte de hyperscale inspirés de la méthode de contrôle de l’espace, et l’automatisation de la distribution du débit et de la puissance à l’intérieur de ces espaces.

Ashburn BA3, et de l’autre RagingWire bâtiments qui l’entourent, représentent hyperscale méthodologie qui a été porté vers le bas un peu plus près de la Terre. Parce que ses principes de construction sont rigide et à plusieurs reprises pratiqué, la société peut construire une installation dans un délai de moins de huit mois de deux ou trois ans. Et les pratiques de gestion et les méthodes qui s’appliquent à un bâtiment peut facilement être ajustée pour s’appliquer à d’autres.

Voici donc où hyperscale architecture et les principes de répondre à l’entreprise, donnant aux entreprises un moyen d’héberger à la fois de leur infrastructure et de leurs charges de travail de manière dérivée à partir des normes établies par Facebook, Amazon AWS, et les autres dans la partie supérieure du niveau espace cloud. Bien que notre attention se concentre souvent sur les appareils de poche comme le centre de la conversation dans la technologie d’aujourd’hui, le centre de calcul de l’activité est la hyperscale de centre de données-qui est à la fois plus grandes et plus petites. L’histoire peut encore enregistrer la hyperscale installation de l’appareil qui définit la technologie du 21e siècle.

En savoir Plus — De CBS Interactive Réseau

Ce que votre entreprise peut apprendre au sujet des centres de données par les géants de la technologieHyperscale centres de données de carburant de la croissance des revenus pour l’entreprise les vendeurs de stockagela Plupart des centres de données sont trop inefficaces, dit Supermicro

D’ailleurs

Hyperscale plates-formes Cloud Changé Conception du Centre de Données et la Fonction. Voici Comment , Quand et Combien de Liquide de Refroidissement Devient Nécessaire dans le Centre de Données Hyperscale plates-formes Cloud Dominé le Centre de Données de Conversation en 2018

Rubriques Connexes:

CXO

Matériel

Les serveurs

Mise en réseau

De stockage

Cloud