AI-computerproducent Graphcore afslører 3D-chip, lover 500 billioner parametre 'ultra-intelligence' maskine

0
167

Tiernan RaySkrevet af Tiernan Ray, bidragende forfatter Tiernan Ray Tiernan Ray Bidragende forfatter

Tiernan Ray har dækket teknologi og forretning i 27 år. Han var senest teknologiredaktør for Barron's, hvor han skrev daglig markedsdækning for Tech Trader-bloggen og skrev den ugentlige trykspalte med det navn.

Fuld biografi den 3. marts 2022 | Emne: AI & Robotics

graphcore-bow-ipu.png

Graphcore, den seks-årige, Bristol, England-baserede producent af kunstig intelligens-chips og -systemer, annoncerede torsdag en ny chip kaldet “Bow”, der gør brug af to halvledermatricer stablet oven på hinanden, hvilket den sagde vil fremskynde applikationer såsom dyb læringstræning med fyrre procent og samtidig reducere energiforbruget.

Virksomheden annoncerede også opdaterede modeller af sine multiprocessor-computere, kaldet “IPU-POD”, der kører Bow-chippen, som det hævder er fem gange hurtigere end sammenlignelige DGX-maskiner fra Nvidia til halv pris.

Som et nik til den stigende modelstørrelse af deep learning neurale net såsom Megatron-Turing, sagde virksomheden, at det arbejder på et computerdesign, kaldet The Good Computer, som vil være i stand til at håndtere neurale netværksmodeller, der anvender 500 billioner parametre , hvilket gør det muligt, hvad det kalder supermenneskelig “ultra-intelligens.”

Bow-processoren er den seneste version af, hvad Graphcore refererer til som “IPU'er”, der står for Intelligence Processing Units. Virksomheden har tidligere udgivet to iterationer af IPU, den sidste i slutningen af ​​2020.

Bow, som er opkaldt efter Bow-kvarteret i London, er “det første skridt i, hvad der for os er en strategisk retning det involverer vertikal siliciumintegration, med andre ord, stabling af siliciummatricer oven på hinanden,” sagde Simon Knowles, medstifter og chefteknolog hos Graphcore, i en mediebriefing.

Også: 'Det er fundamentalt': Graphcore CEO mener, at nye former for kunstig intelligens vil bevise værdien af ​​en ny slags computer

< p>I lighed med “Wafer Scale Engine” udviklet af konkurrenten Cerebras Systems, gør Bow brug af nye fremstillingsteknikker, der går ud over konventionel mikroprocessorfremstilling.

Bow er den første chip, der bruger det, der kaldes wafer-on-wafer chip-teknologi, hvor to matricer er bundet sammen. Det blev udviklet “i tæt samarbejde” med kontraktchipfremstillingsgiganten Taiwan Semiconductor Manufacturing, sagde Graphcores CTO, Simon Knowles, i en briefing for medierne.

graphcore-first-wafer-on-wafer-processor-2022.png

Chippen kan udføre 350 billioner flydende komma pr. sekund af blandet præcision AI-aritmetik, sagde Knowles, som han sagde gjorde chip “den højest ydende AI-processor i verden i dag.”

Cerebras' WSE-2-chip ser ud til at være hurtigere end det, ifølge et estimat fra teknologinyhedsbrevet Microprocessor Report, som hævder, at WSE-2 leverer så meget som 1.700 til 3.400 teraflops til henholdsvis 32-bit eller 16-bit flydende kommaaritmetik. . Graphcore fastholder dog, at Cerebras' chip ikke er en chip, men faktisk en wafer, fordi den består af næsten en hel 12-tommer halvlederwafer, og derfor ikke er sammenlignelig.

Bow bruger de samme 900 megabyte på -chip SRAM primær cache, og den kan flytte data rundt med 65 billioner bytes i sekundet. Links mellem chipsene bevæger sig med 320 gigabyte i sekundet.

< p>

Fremstillingsprocessen for Bow involverer sammensmeltning af to wafers, før waflerne skæres i separat matrice. Spånerne forbindes via det, der er kendt som “hybrid  binding”, som Knowles sammenlignede med koldsvejsning. Det forbinder metalkredsløbet i hver wafer. Den øverste wafer barberes derefter ned til en meget tynd filmlignende kvalitet, der er “floppy”. Den nederste wafer bærer den strukturelle støtte til de to.

Også: AI-chip opstart Graphcore går ind i systemvirksomheden og hævder økonomien langt bedre end Nvidias

Denne proces muliggør “ekstremt høj tæthed af sammenkobling mellem de to wafere,” sagde Knowles.

Det er “mere sofistikeret,” sagde han, end typiske “chip-på-wafer”-tilgange, som f.eks. anvendes af Advanced Micro Devices til at forbinde hukommelseskredsløb til logiske døre. Sammenlignet med den proces opnår wafer-on-wafer ti gange tætheden af ​​sammenkoblinger, sagde han.

En yderligere teknik i buen er en speciel “via”, en tunnel, der forbinder den stablede matrice med resten af ​​systemet.

Formålet med den øverste matrice, der sidder på IPU-logikken og hukommelseskredsløbene, er at bringe strøm til kredsløbene. Disse “dybe rende-kondensatorceller”, som de er kendt, ligner DRAM-hukommelsesceller. I stedet for at gemme information, cellerne et “opladningsreservoir”, der fremskynder de logiske transistorer. Det øger clockhastigheden for transistorer fra 1,325 gigahertz til 1,85 gigahertz. Det resulterer i en hastighed på 40 %.

Den nye chip er kodekompatibel med alle eksisterende Graphcore-systemer og virksomhedens Poplar-programmeringsmiljø og er prissat det samme som de tidligere modeller.

Bow-chippen vil forbedre strømforbruget med 16 %, sagde Graphcore.

Bow er samlet i IPU-POD-maskiner, kaldet BOW POD'er, der skalerer fra 16 Bow-chips til 1.024, og leverer så meget som 358,4 petaflops af computer, i forbindelse med op til 64 ledsagende CPU-processorer.

< p>

< p>

Graphcore, som har demonstreret konkurrencemæssige målinger til Nvidia i benchmark MLPERF-tests, hævder, at BOW POD-16 kan levere en hastighed på fem gange for at træne EfficientNet neurale netværk i forhold til en sammenlignelig DGX-A100-server fra Nvidia. Prisen på BOW POD-16 er det halve af DGX, siger Graphcore, $149.995 mod $299.000.

Også: AI-startup Graphcore siger, at det meste af verden ikke vil træne AI, bare destillere det

De første kunder til de Bow-baserede Pod-maskiner omfatter Pacific Northwest National Labs, et forskningslaboratorium for det amerikanske energiministerium med base i Richland, Washington. PNNL bruger maskinerne til at køre Transformer-baserede neurale netværk og grafiske neurale netværk til opgaver som computerkemi og cybersikkerhed.

Nogle partnere vil tilbyde Pods som cloud-tjenester, herunder Kingsoft Cloud of China og Cirrascale.

Graphcores medstifter og administrerende direktør Nigel Toon sagde i samme mediebriefing, at Bows wafer-on-wafer-tilgang vil muliggøre mange stablede dies, der dramatisk vil øge computerkraften.

“Vi vil udnytte denne wafer-on-wafer-teknologi til at drive den næste fase af AI computing,” sagde Toon.

Den næste generations IPU, sagde han, ville realisere visionen fra 1960'ernes computerforsker Jack Good, en kollega til Alan Turing, der udtænkte en “efterretningseksplosion.”

graphcore-good-computer-2022.jpg

Good var den første person til at “beskrive ideen om, at en computer ville være i stand til at overskride beregningsevnen og informationskapaciteten i en menneskelig hjerne,” sagde Toon. “Vi går nu i gang, vi arbejder på et projekt i dag for at levere denne idé om ultraintelligens.”

“Vi ved faktisk ikke, hvad det betyder i form af beregningsgennemstrømning,” sagde Knowles. Der er dog et par hundrede billioner synapser i den menneskelige hjerne.

Disse synapser er “meget lig de parametre, der læres af et kunstigt neuralt netværk.” Nutidens neurale net er blevet tæt på en billion, bemærkede han, “så vi har helt klart endnu to eller flere størrelsesordener tilbage, før vi har formået at opbygge et kunstigt neuralt netværk, der har samme parametriske kapacitet som en menneskelig hjerne. 

Også: Graphcore bringer ny konkurrence til Nvidia i de seneste MLPerf AI-benchmarks

“Dette er, hvad vi annoncerer i dag,” sagde Knowles. “En maskine, der faktisk vil overstige den menneskelige hjernes parametriske kapacitet.”

“Dette er ikke en drømmeidé, det er et produkt,” sagde Knowles. “Dette er noget, som vi har besluttet at levere, fordi vores kunder har bedt om det.

“Det er ikke meningen, at det skal være en enkeltstående […], og vi agter at lave mange af dem og sælge dem til vores kunder.”

Den gode computer vil kombinere flere wafers, hvis logiske kredsløb, opnår 10 exaflops af beregning, 10 milliarder milliarder flydende komma operationer i sekundet, fodret af fire petabyte hukommelse. 

“Vi forventer at kunne levere denne teknologi som et produkt for omkring 120 millioner dollars,” sagde han. “Det er mange penge, men faktisk en hel del mindre end mange af nutidens supercomputere.”

Knowles erkendte, at stadig større neurale net i fremtiden vil stille større efterspørgsel efter chip-til-chip-sammenkoblinger. “Efterhånden som modelstrukturer bliver rigere, og de begynder at blive mere grafagtige, vil der på en måde være konstant pres. på inter-chip båndbredde, og det er bestemt en faktor i vores arkitektoniske tænkning for den efterfølgende generation.” 

Hardware