AMD heeft maandag de Instinct MI200-versneller onthuld, de nieuwste generatie van zijn datacenter-GPU. De chipmaker zegt dat het de snelste HPC- en AI-versneller is, die records overtreft die zijn ingesteld door de MI100, die vorig jaar werd uitgerold.
De Instinct MI200 levert tot 4,9x een boost in high-performance computing dan bestaande datacenter-GPU's, zegt AMD. Het bedrijf beweert ook dat het de snelste is voor AI-training, met tot 1,2x hogere piek-flops voor prestaties met gemengde precisie.
De versneller bevat 58 miljard transistors die zijn geproduceerd met 6nm-technologie. Dit zorgt voor maximaal 220 rekeneenheden, wat de rekendichtheid met meer dan 80% verhoogt in vergelijking met de MI100. Het is ook 's werelds eerste GPU met 128 GB HBM2E-geheugen.
AMD noemt enterprise, cloud-kracht in Q3-beat, hoger jaaroverzicht.Met de lancering van Epyc Milan wil AMD verder gaan in de onderneming.
Het is 's werelds eerste multi-die GPU, met de tweede generatie van AMD's CDNA-architectuur. AMD onthulde vorig jaar de CDNA-architectuur toen het zijn datacenter- en gaming-GPU-ontwerpen splitste. De CDNA-architectuur is speciaal ontworpen om de rekenworkloads van datacenters te optimaliseren.
“Deze workloads draaien natuurlijk op heel verschillende systemen, dus het scheiden ervan in twee producten en twee chipfamilies was een gemakkelijke manier voor ons om betere producten te ontwerpen”, vertelde Brad McCreadie, AMD VP voor data canter GPU-versnellers, vorige week aan verslaggevers. .
De nieuwe MI200-versneller is ongeveer 5x sneller dan Nvidia's A100 GPU in top FP64-prestaties. Dit is essentieel voor HPC-workloads die hoge precisie vereisen, zoals weersvoorspellingen. De maximale FP32-vectorprestaties zijn ongeveer 2,5x sneller. Dit is belangrijk voor soorten wiskundige bewerkingen die worden gebruikt voor vaccinsimulaties, benadrukte AMD.
AMD neemt ook de wraps weg van Milan-X, de eerste server-CPU met 3D Chiplet-technologie. Het wordt officieel gelanceerd in het eerste kwartaal van 2022.
Deze processors hebben 3x de L3-cache in vergelijking met standaard Milan-processors. In Milaan had elke CCD 32 MB cache. In Milaan-X brengt AMD 96 MB per CCD. De CPU heeft in totaal 804 MB cache per socket aan de bovenkant van de stapel, waardoor de druk op de geheugenbandbreedte wordt verlicht en de latentie wordt verminderd. Dat versnelt op zijn beurt de applicatieprestaties aanzienlijk.
Op socketniveau is Milan-X de snelste serverprocessor voor technische computerworkloads, met een stijging van meer dan 50% voor gerichte technische computerworkloads boven Milaan.
AMD richtte zich op een aantal workloads die productontwerp mogelijk maken, zoals EDA-tools, die worden gebruikt om chipontwerp te simuleren en te optimaliseren. Een grote cache is essentieel voor het verkrijgen van betere prestaties voor deze workloads.
Bij chipontwerp is verificatie een van de belangrijkste taken. Het helpt defecten vroeg op te sporen voordat een chip in silicium wordt gebakken. In vergelijking met Milaan voltooit Milan-X 66% meer banen in een bepaalde tijd. Dit zou klanten die EDA-tools gebruiken moeten helpen de verificatie af te ronden en sneller op de markt te komen, of meer tests in dezelfde tijd toe te voegen om de kwaliteit of robuustheid van hun ontwerp verder te verbeteren.
Processoren
Pre-release Intel Alder Lake-chip verslaat Apple's M1 Max Alibaba Cloud om eigen servers te bouwen met nieuwe interne chip Er zijn twee soorten quantum computing. Eén bedrijf wil beide Arm-processors aanbieden: Alles wat je nu moet weten Kunstmatige Intelligentie | Hardware | Intel | ARM | Innovatie