Intel cascata di centro dati di ricchezze

0
132
cascade-lake-intel-xeon-family-header.jpg

Immagine: Tim HermanIntel Corporation

In uno dei suoi più grandi di sempre annunci, Intel ha iniziato la sua secondo trimestre rilasciando una serie di prodotti nuovi e migliori, volto a consolidare la sua posizione dominante già i dati aziendali centro. Topping che lista è stata estesa ed ottimizzato famiglia di 2 ° generazione di processori Xeon Scalabile processori (Cascade Lake) insieme con il fornitore attesissimo Optane DC persistente in memoria (Apache Pass).

Ma che era tornato all’inizio di aprile, ci spinge a chiedersi se una qualsiasi di queste aveva effettivamente fatto nel centro dati di sicurezza e come tali risultati si misurano contro l’hype.

Lavoro in processori

Cominciamo con i processori, dove è importante sottolineare che l’architettura di base di Intel 2 ° generazione di processori Xeon Scalabile line-up è lontano dal grande balzo in avanti ci si potrebbe aspettare. In effetti, l’architettura è poco è cambiato dalla prima generazione e il silicio stesso è fabbricato utilizzando lo stesso processo a 14nm. Detto questo, la velocità di clock è stato modificato in alcuni Sku, gli altri sono un paio di più core, e dotate di supporto DDR4 RAM fino a 2933MHz. C’è anche un sacco di extra tech costruito per approfittare delle nuove Optane DC persistente in memoria, gestire la sicurezza in hardware piuttosto che software, e AI accelerare l’elaborazione, per esempio. Inoltre, con l’eccezione della serie 9200 (su che più tardi), il nuovo Xeon e sostenere Optane DC persistente in memoria possono essere collegati sulla stessa schede madri come la prima generazione Xeon e le nuove funzionalità sbloccato con un aggiornamento del BIOS.

cascade-lake-4-new-xeons.jpg

Questi 2 ° generazione di processori Xeon Scalabile processori inserirsi nella stessa scheda madre socket come i loro predecessori.

Immagine: Alan Stevens/ZDNet

Alcuni possono essere delusi da questo, e il fatto che Intel non ha ancora riuscito a perfezionare la sua lunga promesso 10nm processo di fabbricazione. Nel breve termine, tuttavia, è una buona notizia, come, invece di dover attendere per un lento rivolo di nuovo 2nd-gen server, i fornitori possono renderle disponibili quasi immediatamente. Infatti, la maggior parte proprio quello che stanno facendo, tra cui Dell, EMC e HP, che hanno entrambi annunciato l’aggiornamento di prodotti, utilizzando i nuovi chip. Noi purtroppo non abbiamo potuto entrare in possesso di uno di questi server, ma siamo stati in grado di cadere in laboratori di Boston Limitata e ottenere le mani su un paio di server Supermicro per ottenere una migliore sensazione di ciò che i clienti possono aspettarsi dal nuovo silicio.

Cosa è successo dopo

Dato che non possono essere inserite nello stesso socket di prima generazione Xeon Scalabile processori, è venuto come una sorpresa per trovare Supermicro offre la 2 ° generazione di Cpu in quasi tutta la sua gamma di server. Infatti, il server che abbiamo visto sono stati quelli che abbiamo esaminato prima. Uno di questi era un semplice dual-socket 1U Supermicro Ultra, l’altro è un 2U Supermicro Twin Pro che può ospitare quattro dual-socket server montato su plug-in e le slitte. Entrambi dispongono di schede madri dotate di LGA 3647 prese, consentendo loro di essere dotato di 1 ° o 2 ° generazione di processori e che richiedono poco in termini di modifica di quest’ultimo, altri più grandi dissipatori di calore per gestire il più alto TDP valutazioni.

cascade-lake-bigger-heatsinks.jpg

Grandi dissipatori di calore può essere necessario per il 2 ° generazione di processori Xeon Scalabile processori, che su alcuni server può bloccare adiacente slot DIMM, come mostrato in questa foto, dove il grande dissipatore di calore è in equilibrio sopra l’originale.

Immagine: Alan Stevens/ZDNet

Purtroppo in uno spazio limitato di server modulare Twin Pro, grandi dissipatori di calore significa che adiacente slot DIMM non può essere utilizzato, quindi, di limitare la capacità di memoria. Tuttavia, questo è solo un problema completamente popolato, e può essere compensata da supporto per i processori Intel di nuova Optane DC Persistente moduli di Memoria (DCPMM) che, come i nuovi processori, può anche essere collegato a schede madri esistenti.

Vediamo di cosa si tratta un po ‘ più nel dettaglio.

Grazie per la memoria

Molto discusso e presentato in anteprima con il nome di Apache Pass, Optane DC (Data center) di memoria utilizza una tecnologia chiamata 3D XPoint che, come convenzionale NAND flash, permette di mantenere i dati quando l’alimentazione è disattivata. A differenza dei normali flash, tuttavia, Optane DC in grado di fornire vicino a DRAM prestazioni ma ad un prezzo molto inferiore, rendendo possibile la creazione di server di grandi quantità di memoria senza rompere la banca. A tal fine, abbiamo trovato 128GB Optane DC moduli di commercio al dettaglio per circa $890: che è molto di più di un SSD, ma meno della metà del costo di un equivalente DDR4 DIMM dotata ECC DRAM.

cascade-lake-box-of-optane-dc.jpg

Optane DC Persistente in Memoria cade nello stesso formato DIMM come DRAM e si innesta la stessa scheda madre slot.

Immagine: Alan Stevens/ZDNet

Optane DC memoria standard di formato DIMM (che è il motivo per cui nessun nuovo connettori o prese di corrente sono necessari), e attualmente può fornire fino a 512 GB per modulo. Secondo Intel, che significa fino a 36 tb di basso costo e di memoria per server, che suona alla grande-ma ci sono avvertimenti.

Per cominciare, Optane DC richiede un nuovo controller di memoria integrato nel nuovo 2 ° generazione di processori, quindi non si può semplicemente inserire nuovo Optane DC moduli in un server esistente senza scambio di processori. C’è anche un limite di sei Optane moduli per la presa, a cui ogni presa richiede almeno un convenzionale DRAM DIMM. In default ‘la Modalità di Memoria’, questo viene utilizzato come cache ad alta velocità per dati presenti nella Optane moduli.

Un altro svantaggio è che la cache DRAM non conta la generale capacità di memoria, ma rende possibile la Optane memoria da consegnare presso-DRAM prestazioni quando il supporto di applicazioni con prevedibili modelli di utilizzo dei dati. Inoltre, questo può essere realizzato senza la necessità di eventuali modifiche al sistema operativo o altri software, che immediatamente benefici applicazioni come i big data analytics e su larga scala virtual server farm.

cascade-lake-optane-dc-in-situ.jpg

Optane DC Persistente moduli di Memoria (qui con importanti etichette bianche) spina standard slot DIMM a fianco convenzionale DRAM che, in Modalità di Memoria predefinita, viene utilizzato per la memorizzazione nella cache.

Immagine: Alan Stevens/ZDNet

Per le applicazioni con meno prevedibile modelli di utilizzo, tuttavia, Optane CC usato in Modalità Memoria può facilmente rallentamento delle prestazioni rispetto al DRAM. Inoltre, la persistenza non è disponibile in Modalità Memoria così, proprio come con un DRAM di installazione, i dati saranno persi quando si spegne l’alimentazione, se è il DRAM cache o su Optane DC moduli.

La persistenza paga

Per sfruttare al massimo la sua capacità di persistenza e un migliore supporto di applicazioni di tutto il consiglio di amministrazione, Optane DC memoria deve essere utilizzato in ciò che si chiama App in modalità Diretta, consentendo dati per essere indirizzati a DRAM o persistente in memoria, come richiesto. Anche in questa modalità, Optane DC può essere utilizzato come byte indirizzabili di archiviazione di blocco, proprio come un SSD, e quindi offrono elevate prestazioni per l’archiviazione, senza colli di bottiglia associato con le tradizionali interfacce di memorizzazione.

VEDERE: Cloud v. data center decisione (ZDNet relazione speciale) | Scaricare il report in formato PDF (TechRepublic)

Tuttavia, tutto questo dipende l’uso di un hypervisor e/o di un sistema operativo che è in grado di distinguere tra le diverse tecnologie di memoria. Al momento della scrittura, il che significa che Windows Server 2019 e/o l’ultima versione di VMware vSphere (6.7). Le applicazioni possono anche bisogno di essere aggiornati per massimizzare i benefici, in genere utilizzando l’open-source Persistente in Memoria Development Kit (PMDK).

I grandi fornitori di cloud, SAP e altri sono anche detto di essere al lavoro su mods per sfruttare Optane DC sulle loro piattaforme.

I numeri reali

In occasione del lancio, Intel hyped i vantaggi di prestazioni, sia del suo nuovo Xeon e Optane DC memoria. La creazione di tali crediti per il test, tuttavia, non è facile e il più grande guadagni dipenderanno dai server utilizzando entrambi i nuovi prodotti, il che rende ancora più difficile. Detto questo, i tecnici di Boston hanno confermato misurabili miglioramenti delle prestazioni che utilizza i processori da solo, principalmente come risultato di Intel urtando l’orologio numeri e, in alcuni casi, superiore core conti rispetto agli equivalenti di prima generazione Xeon.

I problemi di disponibilità significava che hanno potuto testare ogni processore, ma i risultati per coloro che potrebbero misura può essere visto qui:

cascade-lake-linpack.jpg

LINPACK i risultati del confronto tra prima e seconda generazione di processori Intel Xeon Scalabile processori. (*Velocità di Clock generato, **numero di Core maggiore, ***a Più core e più veloce di clock).

Fonte: Boston Limitata

Su alcuni dei processori, è possibile personalizzare ulteriormente le prestazioni con l’utilizzo di Intel di nuova Velocità di Selezionare la tecnologia per ottimizzare la frequenza di base. Questo è normalmente impostata a un livello così basso che può essere sostenuta, anche se tutti i core sono attivi, ma se il carico di lavoro modello richiede meno di complemento completo, Velocità permette di Selezionare la frequenza di base di essere sollevato per fornire maggiori prestazioni in generale.

Questi guadagni sono tutti vale la pena avere, ma sono ben al di sotto dei numeri su alcune delle diapositive mostrate a Intel di lancio. Questo non è sorprendente, perché se si esegue il drill-down nel dettaglio più accattivante i numeri sono intorno a Xeon Platino 9200 che, pur facendo parte della stessa di 2 ° generazione Xeon Scalabile famiglia, è una bestia diversa del tutto.

Doppio pericolo

Caratterizzato come Prestazioni Avanzate o ‘AP’, quello che si ottiene all’interno di ogni 9200 ‘processore’ è una coppia di Xeon Scalabile 8200 series muore accoppiati insieme in un unico altamente denso pacchetto. Che significa il doppio del numero di core del processore — up da 28 a 56 sulla fascia alta 9282 SKU-oltre il doppio della memoria associata, accessibili utilizzando 12 DDR4 canali invece di sei.

cascade-lake-platinum-9200-slide.jpg

La Xeon Platino 9200 è veramente a due processori in uno, e non può essere inserito in uno standard socket della scheda madre.

Immagine: Intel

E ‘ questo il raddoppio accordo che ha permesso a Intel di titolo di un 2X di guadagno di prestazioni per il 9282 Xeon Scalabile rispetto al precedente 8180 in suo lancio letteratura. Ma poi il 8180 ha la metà del numero di core, in modo che la figura è molto da stupirsi.

Al momento della scrittura, il Platino 9200 processori erano appena iniziando a lasciare la fabbrica e Boston non aveva ricevuto alcun tipo di campioni da testare, o le informazioni sui prezzi. Inoltre, è importante sottolineare che, a differenza di altri membri della 2 ° generazione di processori Xeon Scalabile famiglia, 9200s, non sono stati progettati per adattarsi a standard scheda madre socket. Invece, essi vengono come un pacchetto BGA e probabilmente sarà consegnato saldamente attaccati ad un host della scheda madre. La scheda madre sarà anche da Intel e ZDNet capisce che i fornitori OEM, come Supermicro, non sarà in grado di offrire ottime 9200 processori per i loro propri disegni.

Impulso AI

Tutto questo non significa che i clienti non vedere grandi guadagni da altri 2 ° generazione di processori Xeon Scalabile processori, in particolare se hanno anche distribuire Optane DC persistente in memoria. Tuttavia, una certa cura, sarà necessario per ottenere la giusta combinazione di compratori che cercano di risparmiare denaro da massimizzare Optane DC su DRAM, per esempio, potrebbe vedere la performance di caduta rispetto al tutto DRAM piattaforme. Le differenze di prestazioni variano anche a seconda del tipo di applicazione, con Intel avere ancora un asso nella manica nella forma di un nuovo Apprendimento Profondo Aumentare la capacità specificamente destinate ad accelerare il processo di AI di riferimento app.

A differenza di IA formazione, che rende enormi richieste di capacità di elaborazione che sono meglio soddisfatte utilizzando la tecnologia GPU, la deduzione delle applicazioni (dove algoritmi di intelligenza artificiale sono effettivamente messi al lavoro) sono molto meno drenante. Infatti, la deduzione volumi di dati possono essere notevolmente più piccoli e il trattamento fatto a relativamente basso di precisione — un requisito agevolato da parte di Intel dei nuovi Apprendimento Profondo Boost utilizzando il 512-bit vector (AVX512) incluso nel Xeon architettura Scalabile. Utilizzando queste, la 2 ° generazione di processori ora possibile elaborare contemporaneamente 64 8-bit o 32 numeri interi a 16 bit utilizzando un singolo hardware istruzione che, insieme con il supporto per fusibile di operazioni come FMA (moltiplicazione e Addizione), può avere un impatto enorme sulla deduzione delle prestazioni.

Dell, EMC, ad esempio, ha pubblicato i risultati del test usando il ResNet-50 inferenza benchmark mostrando 2 ° generazione di processori Xeon Scalabile processori con un Profondo Apprendimento Spinta più che triplicando la velocità di trasmissione in 8-bit di precisione:

cascade-lake-deep-learning-boost.jpg

AI deduzione delle prestazioni può essere significativamente migliorata da Intel Apprendimento Profondo Boost.

Immagine: Dell / EMC

Di nuovo, le applicazioni reali, non sempre specchio di queste figure, ma ci sono indubbi benefici per essere avuto, e senza la necessità di ulteriori hardware GPU, rafforzando ulteriormente il a Intel centro dati della proposizione.

Lo stato di gioco

La linea di fondo è che, mentre alcune delle cifre citate da Intel bisogno di essere preso con un pizzico di sale, ci sono le prestazioni reali benefici per essere avuto. Essi, tuttavia, non è automatico e i clienti avranno bisogno di passare più tempo sia in corrispondenza dei nuovi processori per applicazioni e il modo migliore per distribuire Optane DC memoria. La buona notizia è che, con l’eccezione del Platino 9200, Intel è stato sorprendentemente rapido a segno raggiungere i suoi nuovi prodotti sul mercato e, così facendo, accanto a una serie di altre tecnologie che insieme guardano impostare rapidamente rimodellare il centro dati.

RECENTI E RELATIVI CONTENUTI

Intel svela ampio Xeon stack con decine di carico di lavoro ottimizzato per processori

HP aggiornamenti Z6, Z8 Postazioni di lavoro con i più recenti processori Intel Xeon

Intel mette Optane di memoria e di storage NAND insieme su H10 SSD

Prima Optane Performance test mostrano benefici e limiti di Intel NVDIMMs

10nm le Cpu Intel non arriva al desktop, almeno fino al 2022, in mezzo a problemi di produzione (TechRepublic)

Argomenti Correlati:

Intel

Hardware

Server

Networking

Archiviazione

Cloud