AMD udruller Instinct MI200 GPU'er til HPC- og AI-arbejdsbelastninger

0
114

Stephanie Condon

Af Stephanie Condon for Between the Lines | 8. november 2021 | Emne: Processorer

AMD afslørede mandag Instinct MI200-acceleratoren, den seneste generation af dets datacenter-GPU. Chipproducenten siger, at det er den hurtigste HPC- og AI-accelerator, der overgår rekorder sat af MI100, der blev rullet ud sidste år.

Instinct MI200 leverer op til et 4,9x boost i højtydende databehandling end eksisterende datacenter-GPU'er, siger AMD. Virksomheden hævder også, at den er den hurtigste til AI-træning og leverer op til 1,2x højere peak flops for blandet præcision.

Acceleratoren indeholder 58 milliarder transistorer produceret med 6nm-teknologi. Dette giver mulighed for op til 220 beregningsenheder, hvilket øger beregningstætheden med over 80 % sammenlignet med MI100. Det er også verdens første GPU med 128 GB HBM2E-hukommelse.

AMD citerer enterprise, cloud-styrke i Q3-beat, højere årstal.Med Epyc Milan-lanceringen sigter AMD på at skubbe yderligere ind i virksomheden.

Det er verdens første multi-die GPU med anden generation af AMD's CDNA-arkitektur. AMD afslørede CDNA-arkitekturen sidste år, da den delte sit datacenter og gaming GPU-design. CDNA-arkitekturen er designet specifikt til at optimere datacentrets computerarbejdsbelastninger.

“Disse arbejdsbelastninger kører selvfølgelig på meget forskellige systemer, så at adskille dem i to produkter og to chipfamilier var en nem måde for os at designe bedre produkter på,” fortalte Brad McCreadie, AMD VP for datagalopp GPU-acceleratorer, til journalister i sidste uge. .

Den nye MI200-accelerator er omkring 5 gange hurtigere end Nvidias A100 GPU i top FP64-ydeevne. Dette er nøglen til HPC-arbejdsbelastninger, der kræver høj præcision som vejrudsigt. Dens maksimale FP32-vektorydelse er omkring 2,5 gange hurtigere. Dette er vigtigt for typer af matematiske operationer, der bruges til vaccinesimuleringer, påpegede AMD.

AMD fjerner også Milan-X, sin første server-CPU med 3D Chiplet-teknologi. Den lanceres officielt i 1. kvartal 2022. 

Disse processorer har 3x L3-cachen sammenlignet med standard Milan-processorer. I Milano havde hver CCD 32 MB cache. I Milan-X bringer AMD 96 MB pr. CCD. CPU'en har i alt 804 MB cache pr. socket i toppen af ​​stakken, hvilket aflaster hukommelsesbåndbreddetrykket og reducerer latens. Det fremskynder til gengæld applikationens ydeevne dramatisk.

På socket-niveau er Milan-X den hurtigste serverprocessor til tekniske computerarbejdsbelastninger med en stigning på mere end 50 % for målrettede tekniske computerarbejdsbelastninger over Milano.

AMD fokuserede på nogle arbejdsbelastninger, der muliggør produktdesign, såsom EDA-værktøjer, der bruges til at simulere og optimere chipdesign. En stor cache er afgørende for at opnå bedre ydeevne for disse arbejdsbelastninger.

I chipdesign er verifikation en af ​​de vigtigste opgaver. Det hjælper med at fange defekter tidligt, før en chip bages til silicium. Sammenlignet med Milano udfører Milan-X 66 % flere job på en given tid. Dette skulle hjælpe kunder, der bruger EDA-værktøjer, til at afslutte verificeringen og gå hurtigere på markedet, eller tilføje flere tests på samme tid for yderligere at forbedre kvaliteten eller robustheden af ​​deres design.

Processorer

Pre-release Intel Alder Lake-chip slår Apples M1 Max Alibaba Cloud for at bygge egne servere med ny intern chip Der er to typer kvanteberegning. Én virksomhed ønsker at tilbyde begge Arm-processorer: Alt hvad du behøver at vide nu Kunstig Intelligens | Hardware | Intel | ARM | Innovation