AMD rullar ut Instinct MI200 GPU:er för HPC- och AI-arbetsbelastningar

0
125

Stephanie Condon

Av Stephanie Condon för Between the Lines | 8 november 2021 | Ämne: Processorer

AMD presenterade på måndagen Instinct MI200-acceleratorn, den senaste generationen av dess datacenter-GPU. Chiptillverkaren säger att det är den snabbaste HPC- och AI-acceleratorn, som överträffar rekord som satts av MI100, som rullades ut förra året.

Instinct MI200 ger upp till en 4,9x ökning av högpresterande datoranvändning än befintliga datacenter GPU:er, säger AMD. Företaget hävdar också att det är det snabbaste för AI-träning, och levererar upp till 1,2 gånger högre peak-flops för prestanda med blandad precision.

Acceleratorn innehåller 58 miljarder transistorer tillverkade med 6nm-teknik. Detta möjliggör upp till 220 beräkningsenheter, vilket ökar beräkningstätheten med över 80 % jämfört med MI100. Det är också världens första grafikprocessor med 128 GB HBM2E-minne.

AMD citerar företag, molnstyrka i Q3 takt, högre årsvy.Med lanseringen av Epyc Milan siktar AMD på att driva ytterligare in i företaget.

Det är världens första multi-die GPU, med den andra generationen av AMD:s CDNA-arkitektur. AMD avslöjade CDNA-arkitekturen förra året när det splittrade sina datacenter- och spel-GPU-designer. CDNA-arkitekturen är uttryckligen utformad för att optimera arbetsbelastningar för datacenter.

“Dessa arbetsbelastningar körs naturligtvis på väldigt olika system, så att separera dem i två produkter och två chipfamiljer var ett enkelt sätt för oss att designa bättre produkter,” sa Brad McCreadie, AMD VP för datagalopp GPU-acceleratorer, till reportrar förra veckan .

Den nya MI200-acceleratorn är cirka 5 gånger snabbare än Nvidias A100 GPU i topp FP64-prestanda. Detta är nyckeln för HPC-arbetsbelastningar som kräver hög precision som väderprognoser. Dess maximala FP32 vektorprestanda är cirka 2,5 gånger snabbare. Detta är viktigt för typer av matematiska operationer som används för vaccinsimuleringar, påpekade AMD.

AMD tar också bort Milan-X, sin första server-CPU med 3D Chiplet-teknik. Den lanseras officiellt under första kvartalet 2022. 

Dessa processorer har 3x L3-cache jämfört med vanliga Milan-processorer. I Milano hade varje CCD 32MB cache. I Milan-X tar AMD med sig 96 MB per CCD. CPU:n har totalt 804 MB cache per socket överst i stacken, vilket avlastar minnesbandbreddstrycket och minskar latensen. Det i sin tur snabbar upp applikationens prestanda dramatiskt.

På socketnivå är Milan-X den snabbaste serverprocessorn för arbetsbelastningar för tekniska datorer, med en ökning på mer än 50 % för riktade arbetsbelastningar för tekniska datorer över Milano.

AMD nollställde vissa arbetsbelastningar som möjliggör produktdesign, som EDA-verktyg, som används för att simulera och optimera chipdesign. En stor cache är avgörande för att få bättre prestanda för dessa arbetsbelastningar.

Inom chipdesign är verifiering en av de viktigaste uppgifterna. Det hjälper till att fånga upp defekter tidigt innan ett chip bakas till kisel. Jämfört med Milano slutför Milan-X 66 % fler jobb under en viss tid. Detta bör hjälpa kunder som använder EDA-verktyg att avsluta verifieringen och gå ut på marknaden snabbare, eller lägga till fler tester på samma tid för att ytterligare förbättra kvaliteten eller robustheten i deras design.

Processorer

Förhandsutgåva Intel Alder Lake-chip slår Apples M1 Max Alibaba Cloud för att bygga egna servrar med nytt internt chip Det finns två typer av kvantberäkningar. Ett företag vill erbjuda båda armprocessorerna: Allt du behöver veta nu Artificiell intelligens | Hårdvara | Intel | ARM | Innovation