Componibile infrastrutture: La Prossima Grande Cosa nel datacenter

0
128
dj-panel-setup.jpg
Conta il 2014, Getty Images/iStockphoto

Che cosa è componibile infrastrutture?

Questo è un concetto che Intel sta spingendo con i loro Rack Scale Design (RSD) concetto, e che HPE ha productized con Sinergia, e, ora, dall’avvio Liqid. L’idea è di costruire rack ad alta densità di calcolare, di reti e di stoccaggio e utilizzo di software per la creazione di server virtuali che qualunque sia l’applicazione ha bisogno per ottenere prestazioni ottimali.

Come server fisici, virtuali, server fisici possono eseguire OSs, VMs, o Contenitori. La differenza è che se avete bisogno di più di una risorsa CPU, GPU, memoria, rete, storage, si può ottenere modificando la configurazione del server al volo da una lastra di vetro.

O se un virtual server fisico muore, di spostare il dispositivo di avvio per un nuovo virtual server fisico. Ora che è flessibile.

Anche: HPE acquista SimpliVity per $650 milioni di euro, rafforza le hyperconverged sistema di formazione | HPE ceppi per componibile infrastrutture, lancia la Sinergia di sistema | AMD fa il suo data center spostare: Sarà EPYC? | TechRepublic: Hyperconverged infrastrutture: La persona intelligente guida

Payback

Corrente di utilizzo dei server varia dal 15 al 35 per cento, a causa del server di scatole di quantità fisse di risorse, non importa che cosa il vostro esigenze delle applicazioni. Il doppio utilizzo e il recupero è quasi immediato.

Alla fine, con un API sulla composizione di software, un’applicazione potrebbe richiedere ulteriori risorse necessarie. Che in tempo reale di riconfigurazione del server sul fly – senza l’intervento umano. Stiamo finalmente assistendo a un percorso di auto-gestione dei datacenter.

PCIe switch

La parte più difficile di qualsiasi “let’s hook tutto fino alla rete e virtualizzare tutto” schemi è, naturalmente, la rete. Sono troppo lento o troppo stretto, e-in ogni caso-troppo costoso. Il più economico larghezza di banda è all’interno di server, che è il motivo per cui così tanto di archiviazione è in corso la migrazione all’interno del server.

Ma PCIe e gli switch PCIe stanno cambiando tutto ciò che. PCIe è componibile – aggiungere più corsie-veloce, molto bassa latenza, integrato in ogni server e ogni dispositivo che si potrebbe desiderare di utilizzare le spine già. Non ci sono driver da installare.

Non sono molti gli switch PCIe disponibili oggi, ma Liqid è quello che contiene un processore Xeon che corre Liqid del software. Switch 24 porte PCIe in half-rack scatola, in modo che si può avere una doppia 48 port switch in 1U.

Prestazioni

Nel IOPS ricco mondo di memoria flash, la latenza è la chiave di archiviazione di misurazione delle prestazioni. Liqid dice che il loro passare la latenza è 150ns. Prendere qualsiasi locale PCIe I/O, eseguito tramite l’interruttore, e aggiungere solo 150ns di latenza.

Poi c’è la larghezza di banda. Questo è un PCIe Gen3 interruttore fino a 96GB/sec di larghezza di banda. Liqid ha diversi modelli di riferimento che offrono scala e scala di opzioni.

L’Archiviazione Bit prendere

Perché Liqid necessario costruire un interruttore? Perché non sono Cisco e Brocade edificio gli switch PCIe? C’è stato un collettivo blindspot in Silicon Valley intorno PCIe come una soluzione scalabile e di interconnessione. (Allo stesso modo con Thunderbolt, ma questa è un’altra blindspot storia).

Ma la cosa importante è che PCIe dell’ubiquità, bassa latenza e alta larghezza di banda è il non-tutto il tessuto. E sì, è possibile eseguire PCIe su rame e vetro, quest’ultimo per 100m+ distanze.

Intel ha aggiornato il suo RSD spec per includere PCIe tessuto. Se si desidera ottenere un salto sulla Prossima Grande Cosa, check-out RSD, Sinergia, e Liqid e iniziare a pensare a come si può rendere il vostro datacenter più efficiente, e più indispensabile.

Cortesi i commenti sono benvenuti, naturalmente.