Composable Infrastruktur: Das Nächste Große Ding in Rechenzentren

0
154
dj-panel-setup.jpg
Conta 2014, Getty Images/iStockphoto

Was ist composable Infrastruktur?

Dies ist ein Konzept, das Intel drängt mit Ihrer Rack-Scale-Design (RSD) – Konzept, und dass HPE hat productized mit Synergie, und jetzt, aus der startup-Liqid. Die Idee ist, bauen high-density-racks berechnet, Netzwerke und Speicher an und verwenden Sie eine software zum erstellen von virtuellen Servern, die unabhängig von der Anwendung muss für eine optimale Leistung.

Wie physischen Servern, virtuellen physikalischen Servern laufen Betriebssysteme, VMs oder Containern. Der Unterschied ist, dass, wenn Sie brauchen mehr von einer Ressource – CPU -, GPU -, Speicher -, Netzwerk -, storage – Sie erhalten es bei einer änderung der server-Konfiguration on-the-fly aus einer Glasscheibe.

Oder wenn eine virtuelle physische server stirbt, verschieben Sie die boot-Gerät, um eine neue virtuelle physische server. Nun, das ist flexibel.

Auch: HPE kauft SimpliVity für $650 Millionen, Rinder bis hyperconverged Systems-lineup | HPE stümpfe für die composable-Infrastruktur, startet Synergie-system | AMD macht seine data center verschieben: es werden EPYC? | TechRepublic: Hyperconverged infrastructure: Der intelligente person ‘ s guide

Payback

Die aktuelle server-Auslastung reicht von 15 bis 35 Prozent, weil die server-Boxen haben Feste Menge an Ressourcen, egal, was Ihre Anwendungen braucht. Verdoppeln, die Ausnutzung und die Rückzahlung ist fast instant.

Schließlich, mit einer API, die auf die Kompositions-software, eine Anwendung, die Anforderung, zusätzliche Ressourcen benötigt. Das ist Echtzeit-server-Neukonfiguration on-the-fly – ohne menschlichen Eingriff. Wir sehen schließlich einen Weg zu den self-managing-datacenter.

PCIe switch

Der harte Teil von “let’ s hook alles bis auf das Netzwerk und Virtualisierung von it-all” – Programme ist natürlich das Netzwerk. Sie sind entweder zu langsam oder zu schmal, und die –in jedem Fall — zu teuer. Die günstigsten Bandbreite in Servern, das ist, warum so viel Speicher migrieren, um in den server.

Aber PCIe und PCIe-switches sind verändert alles. PCIe ist composable – fügen Sie mehrere Spuren — schnell, sehr niedrige Latenz, in jedem server — und jedes Gerät, das Sie verwenden möchten Stecker in es bereits. Es gibt keine Treiber zu installieren.

Es gibt nicht viele PCIe-switches verfügbar heute, aber Liqid hat ein mit einem Xeon-Prozessor, läuft Liqid software. Die Schalter haben 24 PCIe-ports im half-rack-box, so können Sie ein dual-redundante 48-port-switch im 1-HE.

Leistung

In der IOPS-reiche Welt der flash-Speicher ist die Latenz der key storage performance-Metrik. Liqid sagt Ihre switch-Latenz beträgt 150ns. Nehmen Sie alle lokalen PCIe I/O, führen Sie es durch den Schalter, und fügen Sie nur 150ns der Latenz.

Dann gibt es die Bandbreite. Dies ist ein Gen3-PCIe-switch mit bis zu 96GB/sec Bandbreite. Liqid hat verschiedene Referenz-designs, die bieten scale-out und scale-up-Optionen.

Die Speicher-Bits nehmen

Warum hast Liqid bauen einen Schalter? Warum nicht Cisco und Brocade Gebäude PCIe-switches? Es wurde ein Kollektiv blindspot im Silicon Valley rund PCIe als skalierbar miteinander zu verbinden. (Ebenfalls mit Thunderbolt, aber das ist eine andere blindspot Geschichte.)

Aber das wichtigste ist, dass PCIe die Allgegenwart, niedrige Latenz und hohe Bandbreite machen es die do-alles-Stoff. Und ja, Sie können ausführen, PCIe über Kupfer und Glas, letztere für 100 m+ Entfernungen.

Intel hat aktualisiert Ihre RSD-spec zu gehören PCIe-Gewebe. Wenn Sie möchten, um einen Sprung auf das Nächste Große Ding, check out RSD, Synergie, und Liqid und darüber nachzudenken, wie man es machen kann, Ihr Rechenzentrum effizienter zu gestalten – und Sie mehr unverzichtbar.

Höfliche Kommentare willkommen, natürlich.