Intel ‘ s kaskade af data center rigdom

0
191
cascade-lake-intel-xeon-family-header.jpg

Billede: Tim HermanIntel Corporation

I en af sine største nogensinde meddelelser, Intel startede sit andet kvartal ved at frigive en masse nye og forbedrede produkter med henblik på at konsolidere sin i forvejen dominerende stilling i virksomhedens datacenter. Topping, at listen var en udvidet og ændret en familie af 2.-generations Xeon Skalerbar processorer (Kaskade-Søen) sammen med leverandøren er meget ventede Optane DC vedvarende hukommelse (Apache-Pass).

Men det var tilbage i starten af April, hvilket fik os til at spekulere på, om nogen af disse havde faktisk gjort det i data-center endnu, og hvordan disse resultater måle op mod den hype.

Arbejde i processorer

Lad os starte med processorer, hvor det er vigtigt at understrege, at arkitekturen bag Intel ‘ s 2. generation Xeon Skalerbar line-up ligger langt fra de store spring fremad nogle kunne forvente. Ja, arkitekturen er lidt ændret fra den første generation og silicium, der i sig selv er fremstillet ved hjælp af den samme 14nm proces. Det sagt, ur priser er blevet justeret på nogle af de Varenumre, andre har et par flere kerner, plus at de alle støtter DDR4 RAM op til 2933MHz. Der er også en masse ekstra tech bygget i at drage fordel af de nye Optane DC vedvarende hukommelse, håndtere sikkerheden i hardware snarere end software, og fremskynde AI behandling for eksempel. Desuden, med undtagelse af 9200-serien (om hvilket mere senere), de nye Xeons og støtte Optane DC vedvarende hukommelse kan være tilsluttet på samme bundkort som første generation Xeons og eventuelle nye funktioner låses op med en BIOS opdatering.

cascade-lake-4-new-xeons.jpg

Disse 2nd generation Xeon Skalerbar processorer, der passer ind i de samme bundkort stik som deres forgængere.

Billede: Alan Stevens/ZDNet

Nogle vil måske blive skuffet over dette, og det faktum, at Intel har stadig ikke formået at perfektionere sin lange lovet 10nm produktionsprocessen. På kort sigt, men det er en god nyhed, som i stedet for at skulle vente på en langsom strøm af nye 2nd-gen servere, leverandører kan gøre dem tilgængelige næsten øjeblikkeligt. Ja, de fleste gør bare, at der, herunder Dell, EMC og HP, som begge har annonceret opdaterede produkter ved hjælp af de nye chips. Desværre kunne vi ikke få fat i nogen af disse servere, men vi var i stand til at falde ind i den labs på Boston Begrænsede, og få hands-on med et par af Supermicro servere til at få en meget bedre fornemmelse for, hvad kunderne kan forvente fra den nye silicium.

Hvad der skete næste

I betragtning af, at de kan blive indsat i de samme stik som første generation af Xeon-Skalerbar-processorer, det kom ikke som nogen overraskelse at finde ud af, Supermicro, der tilbyder 2nd generations Cpu ‘ er på tværs af næsten hele sin server området. Ja, de servere, vi så, var dem, vi har gennemgået før. En af disse var en ligetil dual-socket 1U Supermicro Ultra, den anden en 2U Supermicro Twin Pro, der kan rumme fire dual-socket-servere, der er monteret på plug-in slæder. Begge har bundkort, der er udstyret med LGA 3647 stik, der gør det muligt for dem at være udstyret med enten 1 eller 2.-generations processorer og kræver lidt i vejen for ændringer for at tage det sidste, andre end større heatsinks til at håndtere de højere TDP ratings.

cascade-lake-bigger-heatsinks.jpg

Større heatsinks kan være nødvendigt med 2.-generations Xeon-Skalerbar-processorer, som på nogle servere kan blokere tilstødende DIMM slots, som vist i dette billede, hvor de større heatsink er balanceret på toppen af den oprindelige.

Billede: Alan Stevens/ZDNet

Desværre er på plads-begrænset servere som den modulære Twin Pro, større heatsinks betyde, at tilstødende DIMM slots, der ikke kan bruges, hvorved hukommelse kapacitet. Dette er dog kun et problem på fuldt befolket systemer og kan blive opvejet af support for Intel ‘ s nye Optane DC Vedvarende Hukommelse moduler (DCPMM), der ligesom de nye processorer, der kan også sættes i eksisterende bundkort.

Lad os se på, hvad det hele handler om i en lidt mere detaljeret.

Tak for hukommelsen

Meget diskuteret og fremvist under kodenavnet Apache Pass, Optane DC (Data Center) hukommelse bruger en teknologi kaldet 3D XPoint, der, ligesom konventionelle NAND flash, der kan opbevare data, når strømmen er slukket. I modsætning til konventionelle flash, men Optane DC kan levere tæt på DRAM, men til en meget lavere pris, hvilket gør det muligt at bygge servere med store mængder hukommelse uden at bryde banken. Til dette formål har vi fundet 128GB Optane DC-moduler detailhandel for omkring $890: der er meget mere end en SSD, men mindre end halvdelen af prisen for en tilsvarende DDR4 DIMM-modulet er monteret med ECC DRAM.

cascade-lake-box-of-optane-dc.jpg

Optane DC Vedvarende Hukommelse kommer i samme DIMM-format, som DRAM og sættes i samme bundkort slots.

Billede: Alan Stevens/ZDNet

Optane DC hukommelse kommer i standard DIMM-format (som er grunden til, at ingen nye stik eller stikdåser er påkrævet), og kan i øjeblikket levere op til 512 GB per modul. Ifølge Intel, der betyder, at op til 36TB af low-cost hukommelse per server overordnede, som lyder fantastisk-men der er forbehold.

Til at starte med, Optane DC kræver en ny memory controller, som er bygget ind i den nye 2.-generation af processorer, så du kan ikke bare sætte nye Optane DC-moduler til en eksisterende server, uden også at bytte processorer. Der er også en grænse på seks Optane moduler pr stik, der hver bøsning kræver mindst én konventionel DRAM-DIMM-modulet. I standard “Memory Mode”, kan dette bruges som en high-speed mellemlager for data, der opbevares på Optane moduler.

En anden ulempe er, at DRAM cache ikke tæller til den samlede hukommelse, men det gør det muligt for den Optane hukommelse til at levere nær-DRAM ydeevne, når der er understøttende applikationer med forudsigelige data brugsmønstre. Desuden er, det kan ske uden behov for ændringer til enten operativsystemet eller andre programmer, som straks fordele applikationer såsom big data analytics og store virtuelle server gårde.

cascade-lake-optane-dc-in-situ.jpg

Optane DC Vedvarende Hukommelse moduler (her vist med fremtrædende hvide etiketter), stik i standard DIMM slots sammen med konventionelle DRAM, som, i den standardhukommelse, Tilstand, bruges til caching.

Billede: Alan Stevens/ZDNet

For applikationer med mindre forudsigelige mønstre i brug, men Optane DC brugt i Memory-Tilstand kan let langsom ydeevne i forhold til DRAM. Desuden, vedholdenhed er ikke tilgængelig i Hukommelses-Mode, så, lige som med en DRAM opsætning, data vil stadig være tabt, når der er slukket for strømmen, uanset om det er i DRAM cache eller på Optane DC-moduler.

Vedholdenhed betaler sig

For at drage fuld fordel af sin vedholdenhed, kapacitet og bedre støtte-programmer på tværs af bestyrelsen, Optane DC-hukommelsen skal bruges i, hvad hedder App ‘ Direct mode, så data skal rettes til enten DRAM eller vedvarende hukommelse, som kræves. Også i denne tilstand, Optane DC kan bruges som byte-adresserbare block storage ligesom en SSD, og så leverer high-performance opbevaring, uden at de flaskehalse, der er forbundet med konventionelle opbevaring grænseflader.

SE: Cloud v. data center afgørelse (ZDNet særlige rapport) | Download rapporten som PDF (TechRepublic)

Alt dette er imidlertid afhængige af en hypervisor og/eller et operativsystem, der er i stand til at skelne mellem de forskellige memory-teknologier. På tidspunktet for skrivning, der betyder, at Windows Server 2019 og/eller den nyeste version af VMware vSphere (6.7). Applikationer kan også være nødvendigt at være opdateret til at maksimere de fordele, typisk ved hjælp af open-source Vedvarende Hukommelse Development Kit (PMDK).

De store cloud-leverandører, SAP og andre er også siges at være arbejder på mods til at udnytte Optane DC på deres platforme.

I den virkelige verden numre

Ved lanceringen, Intel hyped op performance fordele, både for sin nye Xeons og Optane DC-hukommelse. At sætte disse krav til test, er imidlertid langt fra let, og langt den største gevinster vil komme fra servere ved hjælp af både nye produkter, som gør det endnu sværere. Det sagt, ingeniører på Boston har bekræftet, målbare forbedringer af ydeevnen hjælp processorer alene, primært som følge af Intel bumpe op på uret tal, plus, i et par tilfælde, højere core tæller i forhold til tilsvarende første generation Xeons.

Tilgængeligheden spørgsmål betød, at de ikke kunne teste hver processor, men resultaterne for dem, de kunne måle, kan ses her:

cascade-lake-linpack.jpg

LINPACK resultater sammenligning af første og anden generation af Intel Xeon-Skalerbar-processorer. (*Ur hastighed rejst, **Core tæller steget, ***Flere kerner og hurtigere clock).

Kilde: Boston Begrænset

På nogle af de processorer du kan yderligere justere ydeevne ved hjælp af Intel ‘ s nye Hastighed Vælg teknologi til at optimere base frekvens. Dette er normalt sat til på et lavt niveau, der kan opretholdes, selv om alle kerner, der er aktive, men hvis arbejdsbyrden mønster kræver mindre end det fulde komplement, Hastighed Vælg tillader base frekvens til at blive opdraget til at levere højere ydelse samlet set.

Disse gevinster er alle værd at have, men er langt under det tal på nogle af de dias, der vises på Intel lancere. Det er ikke overraskende, fordi hvis du bore ned i de detaljer de mest iøjnefaldende tal er centreret omkring den Xeon Platinum 9200, som, på trods af at være en del af den samme 2nd generation Xeon Skalerbar familie, er en anden bæst helt.

Double jeopardy

Der karakteriseres som Avanceret Ydelse eller “AP”, hvad du får i hver 9200 “registerfører” er et par Xeon Skalerbar 8200 series dør koblet sammen i et enkelt meget tætte pakke. Det betyder, at fordoble antallet af processorkerner — up fra 28 til 56 på high-end 9282 SKU — plus dobbelt forbundet hukommelse, der kan nås ved hjælp af 12 DDR4-kanaler i stedet for bare seks.

cascade-lake-platinum-9200-slide.jpg

Xeon Platinum 9200 er virkelig to processorer i én, og som ikke kan indpasses i en standard bundkort socket.

Billede: Intel

Det er denne fordobling arrangement, der muliggjorde en Intel at headline en 2X ydeevne gevinst for 9282 Xeon Skalerbar i forhold til den tidligere 8180 i lanceringen litteratur. Men så 8180 har halvdelen af antallet af kerner, så at tallet er langt fra overraskende.

På tidspunktet for skrivning, Platin 9200 processorer var kun lige begyndt at forlade fabrikken og Boston ikke havde modtaget nogen prøver at teste, eller enhver pris information. Desuden, det er vigtigt at understrege, at, i modsætning til andre medlemmer af 2.-generations Xeon Skalerbar familie, 9200s ikke er designet til at passe standard bundkort stik. I stedet, de kommer som en BGA-pakke, og vil sandsynligvis være leveret solidt fastgjort til et væld bundkort. Bundkortet vil også være fra Intel, og ZDNet forstår, at OEM-leverandører, som Supermicro, vil være i stand til at tilbyde Skalerbar 9200 processorer på deres egne designs.

Boost for AI

Alt dette betyder ikke, at kunderne ikke vil se de store gevinster fra andre 2nd generation Xeon Skalerbar processorer, især hvis de også installere Optane DC vedvarende hukommelse. Men nogle pleje vil være nødvendige for at få den kombination lige som købere ønsker at spare penge ved at maksimere Optane DC over DRAM, for eksempel, kunne se resultater falder i forhold til alle-DRAM platforme. Performance forskelle også vil variere afhængigt af, hvilken type ansøgning, der er involveret, med Intel har endnu et trick i ærmet i form af en ny Dyb Læring Øge kapacitet, som specifikt tager sigte på at fremskynde AI inferencing apps.

I modsætning til AI uddannelse, som gør store krav til databehandling, der er bedst imødekommes ved at bruge GPU-teknologi, inferencing applikationer (hvor AI algoritmer er faktisk sat til at arbejde), langt mindre udledning. Ja, inferencing data mængder kan være betydeligt mindre, og den forarbejdning, der er foretaget på et relativt lavt præcision — et krav, faciliteret af Intel ‘ s nye Dybe Læring Boost hjælp 512-bit vektor enheder (AVX512), som er inkluderet i Xeon Skalerbar arkitektur. Ved hjælp af disse, 2.-generation af processorer kan nu samtidig proces 64 8-bit eller 32 16-bit heltal ved hjælp af en enkelt hardware instruktion, som, sammen med støtte til smeltet operationer som FMA (Smeltet Formere sig at Tilføje), kan have en enorm indflydelse på inferencing ydeevne.

Dell, EMC, for eksempel, har offentliggjort test-resultater ved hjælp af den ResNet-50 inferens benchmark viser, 2nd generation Xeon-Skalerbar-processorer med Dyb Læring Styrke mere end en tredobling gennemløb i 8-bit-heltal præcision:

cascade-lake-deep-learning-boost.jpg

AI inferencing ydeevne kan blive forbedret betydeligt ved Intel ‘ s Dybe Læring Boost.

Billede: Dell, EMC

Igen, real-programmer kan ikke altid spejl disse tal, men der er klare fordele ved at være havde, og uden behov for ekstra GPU hardware, yderligere styrkelse af Intel ‘ s data center proposition.

Status

Den nederste linje er, at mens nogle af de tal, der fremlægges af Intel skal tages med et gran salt, der er reelle ydeevne fordele ved at være havde. Men de er ikke automatisk, og kunderne bliver nødt til at bruge mere tid på både at matche de nye processorer til applikationer, og arbejde ud af, hvordan man bedst til at implementere Optane DC-hukommelse. Den gode nyhed er, at, med undtagelse af Platin 9200, Intel har været overraskende hurtig på vildspor at få nye produkter på markedet, og at gøre det sammen med en række andre teknologier, som tilsammen ser ud til hurtigt at omforme data center.

DE SENESTE OG RELATERET INDHOLD

Intel lancerer bred Xeon stak med snesevis af arbejdsbyrden-optimeret processorer

HP-opdateringer Z6, Z8 Arbejdsstationer med de nyeste Intel Xeon-processorer

Intel sætter Optane NAND-hukommelse og storage sammen på H10 SSD

Første Optane Performance tests viser fordele og begrænsninger af Intel ‘ s NVDIMMs

10nm Intel Cpu ‘er, der ikke kommer til pc’ er, i hvert fald indtil 2022, midt fremstilling spørgsmål (TechRepublic)

Relaterede Emner:

Intel

Hardware

Servere

Netværk

Opbevaring

Cloud