Intels kaskad av data centre rikedomar

0
138
cascade-lake-intel-xeon-family-header.jpg

Bild: Tim HermanIntel Corporation

I en av de största någonsin meddelanden, Intel sparkade igång sin andra kvartalet genom att släppa en massa nya och förbättrade produkter som syftar till att stärka sin dominerande ställning i företagets datacenter. Toppade den listan var en längre och fixade familj av 2: a generationens Xeon Skalbar processorer (Kaskad Sjön) tillsammans med säljarens mycket efterlängtade Optane DC ihållande minne (Apache Pass).

Men det var i början av April, vilket fick oss att undra om någon av dessa hade faktiskt gjort det i data centrum, men ändå i och hur dessa resultat kan mäta sig mot den hype.

Arbete inom processorer

Låt oss börja med processorer, där det är viktigt att betona att arkitekturen bakom Intels 2: a generationens Xeon Skalbar line-up är långt från de stora språng framåt vissa kanske tror. Ja, arkitekturen är lite förändrats från den första generationen och kisel i sig är tillverkade med samma 14nm processen. Som sagt, klockan priser har justerats på några av de Sku, andra har några fler kärnor, plus de alla har stöd för DDR4 RAM upp till 2933MHz. Det finns också en hel del extra tech byggt för att dra nytta av den nya Optane DC ihållande minne, hantera säkerhet i maskinvara snarare än mjukvara, och påskynda AI bearbetning till exempel. Dessutom, med undantag av 9200 (om vilken mer senare), den nya Xeons och stödja Optane DC ihållande minne kan anslutas på samma moderkort som första generationens Xeons och några nya funktioner låsas med en BIOS-uppdatering.

cascade-lake-4-new-xeons.jpg

Dessa 2: a generationens Xeon Skalbar processorer passa in i samma moderkort uttag som sina föregångare.

Bild: Alan Stevens/ZDNet

Vissa kan bli besvikna på detta och det faktum att Intel har fortfarande inte lyckats perfekt sitt länge utlovade 10mn tillverkningsprocessen. På kort sikt, men det är bra nyheter som istället för att behöva vänta på en långsam rännil av nya 2: a gen servrar, säljare kan göra dem tillgängliga nästan omedelbart. Ja, de flesta är bara att göra det, inklusive Dell EMC och HP, som båda har aviserat uppdaterade produkter med den nya marker. Tyvärr kunde vi inte få tag på någon av dessa servrar, men vi kunde släppa in labs i Boston Begränsad och få hands-on med ett par Supermicro servrar för att få en mycket bättre känsla för vad kunderna kan förvänta sig av de nya silicon.

Vad som hände sedan

Med tanke på att de kan placeras in i samma uttag som den första generationen av Xeon Skalbar processorer, det kom inte som någon överraskning att hitta Supermicro, som erbjuder den 2: a generationens Processorer över nästan hela dess server utbud. Ja, de servrar som vi såg var dem som vi har granskat tidigare. En av dessa var en enkel dual-socket 1U Supermicro Ultra, den andra är en 2U Supermicro Twin Pro som rymmer fyra dual-socket servrar monterad på plug-in slädar. Båda har moderkort utrustade med LGA 3647 uttag, så att de kan vara utrustade med antingen 1: a eller 2: a generations processorer och kräver lite modifiering för att ta det senare, andra än större kylflänsar för att hantera högre TDP betyg.

cascade-lake-bigger-heatsinks.jpg

Större kylflänsar kan behövas med 2: a generationens Xeon Skalbar processorer, som på vissa servrar kan blockera intilliggande DIMM-platser, som visas i den här bilden var den större kylfläns är balanserad på toppen av den ursprungliga.

Bild: Alan Stevens/ZDNet

Tyvärr på utrymme som begränsas av servrar som de modulära Twin Pro, större kylflänsar innebär att intilliggande DIMM-platser inte kan användas, och på så sätt begränsa minneskapacitet. Detta är dock bara en fråga om att fullständigt ifyllt system och kan kompenseras genom stöd för Intels nya Optane DC Bestående Minne-moduler (DCPMM) som i likhet med den nya processorer, kan även anslutas till befintliga moderkort.

Låt oss titta på vad det handlar om lite mer i detalj.

Tack för minnet

Mycket som diskuteras och visas under kodnamnet Apache Pass, Optane DC (Data Centre) minne använder en teknik som kallas 3D-XPoint som, liksom konventionella NAND-flash, kan behålla data när den stängs av. Till skillnad från konventionella flash, men Optane DC kan leverera nära DRAM prestanda men till en mycket lägre kostnad, vilket gör det möjligt att bygga servrar med stora mängder minne utan att bryta banken. För detta ändamål fann vi 128GB Optane DC moduler detaljhandel för runt $890: det är mycket mer än en SSD, men mindre än hälften av kostnaden för en motsvarande DDR4 DIMM utrustade med ECC DRAM.

cascade-lake-box-of-optane-dc.jpg

Optane DC Ihållande Minne kommer i samma DIMM-format som DRAM och pluggar i samma moderkort slots.

Bild: Alan Stevens/ZDNet

Optane DC-minnet levereras i standard-DIMM-format (vilket är anledningen till att inga nya kontakter eller uttag krävs), och kan nu leverera upp till 512GB per modul. Enligt Intel innebär det upp till 36TB av låg-kostnad-minne per server generellt, som låter bra-men det finns förbehåll.

Till att börja med, Optane DC kräver ett nytt minne styrenhet som är inbyggd i den nya 2: a generations processorer, så du kan inte bara koppla in nya Optane DC-moduler i en befintlig server utan även att byta ut processorer. Det finns också en gräns på sex Optane moduler per uttag, läggs till varje uttag krävs minst en konventionell DRAM-DIMM. I standard “Memory Mode”, detta används som en high-speed-cache för data som är lagrade på Optane moduler.

En annan nackdel är att DRAM-cache inte räknas till den totala minneskapaciteten, men det gör det möjligt för den Optane minne för att leverera nära-DRAM prestanda när det gäller att stödja applikationer med förutsägbara uppgifter användningsmönster. Dessutom, och detta kan uppnås utan att det behövs några förändringar för antingen operativsystemet eller andra program, som omedelbart fördelarna program som big data analytics, storskalig virtuell server gårdar.

cascade-lake-optane-dc-in-situ.jpg

Optane DC Ihållande minnesmoduler (visas här med framstående vita etiketter) plug-in standard-DIMM-platser vid sidan av konventionella DRAM, som i standard-Memory-Mode, används för cachning.

Bild: Alan Stevens/ZDNet

För applikationer med mindre förutsägbara mönster av användning, dock, Optane DC används i Memory-Mode kan lätt långsam prestanda jämfört med DRAM. Dessutom, ihärdighet är inte tillgängliga i Memory-Mode så, precis som med en all-DRAM-inställningar, data kommer fortfarande att vara förlorad när strömmen slås av, oavsett om det är i DRAM-cache eller på Optane DC moduler.

Envishet lönar sig

För att dra full nytta av dess persistens kapacitet och bättre stöd för applikationer inom styrelsen, Optane DC behov minne att användas i vad som kallas App Direct mode, så att data skall riktas till antingen DRAM eller ihållande minne som krävs. Också i detta läge, Optane DC kan användas som byte-adresserbara block storage precis som en SSD, och så kan leverera hög prestanda lagring, utan flaskhalsar i samband med konventionell lagring gränssnitt.

SE: Cloud v. data center beslut (ZDNet särskild rapport) | Ladda ner rapporten som en PDF (TechRepublic)

Men allt detta är beroende av användandet av en hypervisor och/eller ett operativsystem som är möjligt att skilja mellan olika minnestekniker. I skrivande stund, som innebär att Windows Server 2019 och/eller den senaste versionen av VMware vSphere (6.7). Ansökan kan också måste uppdateras för att maximera nyttan, vanligtvis med hjälp av öppen källkod Ihållande Minne Development Kit (PMDK).

Den stora molnleverantörer, SAP och andra sade också att de arbetar för mods att utnyttja Optane DC på sina plattformar.

Verkliga siffror

Vid lanseringen, Intel hyped upp prestanda fördelar, både för sin nya Xeons och Optane DC-minne. Att sätta dessa påståenden för att testa, men är långt ifrån enkelt och överlägset största vinsterna kommer från servrar med hjälp av både nya produkter, vilket gör det ännu svårare. Som sagt, ingenjörerna på Boston har bekräftat mätbara förbättringar med hjälp av processorer ensam, främst som en följd av Intel stöta upp klockan nummer plus, i ett fåtal fall, högre kärna räknas jämfört med motsvarande första generationens Xeons.

Tillgänglighet innebar att de inte kunde testa varje processor, men resultaten för dem som de kan mäta kan ses här:

cascade-lake-linpack.jpg

LINPACK resultat att jämföra första och andra generationens Intel Xeon Skalbar processorer. (*Klocka för hastighet upp, **Kärna antal ökas, ***Fler kärnor & snabbare klocka).

Källa: Boston Begränsad

På vissa processorer kan du ytterligare justera prestanda genom att använda Intels nya Hastighet Välja teknik för att optimera bas frekvens. Detta är normalt inställd på en låg nivå som kan upprätthållas även om inte alla kärnorna är aktiv, men om arbetsbördan mönster kräver mindre än full komplement, Hastighet Väljer du tillåter bas frekvens höjas för att leverera högre prestanda generellt.

Dessa vinster är alla värda att ha, men är långt under siffrorna på några av de bilder som visas på Intel att lansera. Det är inte förvånande eftersom om du borra ner i detalj mest iögonfallande nummer är centrerad kring Xeon Platinum 9200 som, trots att de är del av samma 2: a generationens Xeon Skalbar familj, är ett annat djur helt och hållet.

Double jeopardy

Betecknas som Avancerad Prestanda eller ‘AP’, vad du får in varje 9200 registerförare är ett par av Xeon Skalbar 8200-serien dör förenas i en enda mycket täta paket. Det innebär dubbla antalet processorkärnor — upp från 28 till 56 på high-end-9282 SKU — plus dubbel tillhörande minne, som nås med hjälp av 12 DDR4-kanaler istället för att bara sex.

cascade-lake-platinum-9200-slide.jpg

Xeon Platinum 9200 är verkligen två processorer i en, och inte kan placeras in på en standard moderkort socket.

Bild: Intel

Det här är en fördubbling arrangemang som är aktiverade för Intel att rubriken en 2X prestanda vinst för 9282 Xeon Skalbar jämfört med den tidigare 8180 vid lanseringen av litteratur. Men då 8180 har hälften av antalet kärnor, så att siffran är långt ifrån överraskande.

I skrivande stund, Platina 9200-processorer var bara börjat att lämna fabriken och Boston hade inte fått några prover för att testa, eller någon prisinformation. Dessutom är det viktigt att påpeka att till skillnad från andra medlemmar av 2: a generationens Xeon Skalbar familj, 9200s inte är utformade för att passa standard moderkortets uttag. Istället, de kommer som en BGA-paketet och kommer sannolikt att levereras stadigt fäst till en mängd moderkortet. Moderkortet kommer också från Intel och ZDNet förstår att OEM-tillverkare, som Supermicro, kommer inte att erbjuda Skalbara 9200-processorer på sina egna mönster.

Uppsving för AI

Allt detta betyder inte att kunder inte kommer att se stora vinster från andra 2: a generationens Xeon Skalbar processorer, särskilt om de också distribuera Optane DC bestående minne. Men vissa bryr kommer att behövas för att få rätt kombination som köpare vill spara pengar genom att maximera Optane DC över DRAM, till exempel, skulle kunna se resultat faller i förhållande till alla-DRAM plattformar. Prestanda skillnader kommer också att variera beroende på vilken typ av ansökan som är involverade, med Intel med ännu ett trick i rockärmen i form av ett nytt Djupt Lärande Öka kapacitet som särskilt syftar till att påskynda AI inferencing apps.

Till skillnad från AI utbildning, vilket ställer enorma krav på kapacitet behandling som är bäst tillgodoses med GPU-teknik, inferencing program (där AI-algoritmer är faktiskt sätts i arbete) är betydligt mindre dränering. Ja, inferencing datamängder kan vara betydligt mindre och behandling sker vid en relativt låg precision — ett krav underlättas av Intels nya Djup Inlärning Öka med 512-bitars vektor enheter (AVX512) ingår i Xeon Skalbar arkitektur. Med hjälp av dessa, 2: a generationens processorer kan nu samtidigt process 64 8-bit eller 32 16-bitars heltal med hjälp av en enda maskin-instruktion, som tillsammans med stöd för smält verksamhet som FMA (Smält Multiplicera Lägg till), kan ha en enorm inverkan på inferencing prestanda.

Dell EMC till exempel, har publicerat ett test resultat med hjälp av de ResNet-50 slutledning benchmark visar att 2: a generationens Xeon Skalbar processorer med Djupt Lärande Öka mer än en tredubbling av genomströmning i 8-bitars heltal precision:

cascade-lake-deep-learning-boost.jpg

AI inferencing prestanda kan förbättras väsentligt genom Intels Djupt Lärande Öka.

Bild: Dell EMC

Igen, verkliga tillämpningar kan inte alltid spegel dessa siffror, men det finns definitivt fördelar med att vara hade och utan behov för ytterligare GPU hårdvara, för att ytterligare förstärka Intels data centre proposition.

Läget

Kärnpunkten här är att även om några av de siffror som anges av Intel måste tas med en nypa salt, det är verkliga prestanda fördelar med att vara hade. De är dock inte automatisk och kunder kommer att behöva spendera mer tid på att både matcha nya processorer till program och arbeta ut hur man bäst distribuerar Optane DC-minne. Den goda nyheten är att, med undantag av Platina 9200, Intel har varit förvånansvärt snabb i vändningarna med att få ut nya produkter på marknaden och genom att göra det tillsammans med en rad andra tekniker som tillsammans ser ut att snabbt omforma data centrum.

DE SENASTE OCH RELATERAT INNEHÅLL

Intel lanserar en bred Xeon stack med massor av arbetsbelastning-optimerad processorer

HP uppdateringar Z6, Z8 Arbetsstationer med den senaste Intel Xeon-processorer

Intel sätter Optane NAND-minne och lagring tillsammans på H10 SSD

Första Optane Prestanda tester visar på fördelar och begränsningar av Intels NVDIMMs

10mn Intel-Processorerna inte kommer till stationära datorer, åtminstone fram till 2022, mitt frågor tillverkning (TechRepublic)

Relaterade Ämnen:

Intel

Hårdvara

Servrar

Nätverk

Förvaring

Cloud