| November 19, 2019 — 17:40 GMT (17:40 GMT)
| Emne: Kunstig Intelligens

En “eksploderet” af det CS-1, med de bearbejdede døre i nederste venstre hjørne, pumper for vand til køling og fans i midten, og “motor blok” i øverste højre der indeholder WSE chip.
(Billede: Cerebras Systems Inc.)
“Jeg er meget mindre interesseret i ting, du kan diskutere på Twitter, og mere interesseret i at have reelle kunder kommer og find ud af, hvad vi har.”
Det er, hvordan Andrew Feldman, administrerende direktør for opstart af computeren Cerebras Systemer, beskriver hans opfattelse af industrien benchmarks for kunstig intelligens, især MLPerf, de mest almindeligt nævnt foranstaltning, computer chip ydeevne på AI.
Også: Cerebras CEO taler om de store konsekvenser for machine learning i selskabets store chip
“Vi har ikke bruge et minut, der arbejder på MLPerf, vi har brugt tid på at arbejde på rigtige kunder,” sagde Feldman i et interview via telefon.
“Vi fokuserede tid og opmærksomhed på at fortrænge konkurrenterne på store kunder, og arbejder på at opnå ekstraordinære resultater på kunde arbejdsbyrde.”
Anledningen til, Feldman ‘ s bemærkninger var afsløringen tirsdag, på supercomputer vis SC19 i Boulder, Colo., af Cerebras første edb-system, CS-1.
Et heat map af dele af det neurale netværk, som de kører på WSE chip. Hvert rektangel er et lag af det neurale netværk. Størrelsen af rektanglet er, hvor mange af de WSE chip ‘ s 400,000 kerner lag bruger. Skærmformat af rektanglerne er forholdet mellem beregne til kommunikation lag bruger. Nuance af rektanglet er sin udnyttelse af den chip, med mørkere bliver bedre, hvilket betyder, mere fuldt udnyttet.
(Billede: Cerebras Systems Inc.)
CS-1, et chassis, der måler 15 standard-rack-enheder høj (lidt over to meter, og en fod og en halv lang og tre meter dyb), huse selskabets WSE chip, som blev afsløret i August, verdens største computer chip. Et komplekst system af vand-og luftkøling er udviklet i CS-1, sammen med en graf compiler software suite, der optimerer neurale net til at drage fordel af systemet, er en enorm magt.
Feldman ‘ s holdning om MLPerf er lidt kættersk. Efter at alle, hver chip company, som lover at vælte Nvidia i neurale netværk, uddannelse billethajer dens ydeevne på MLPerf. Grundlagt et år siden i februar af Google, Baidu og akademikere, de MLPerf projektet er beregnet til at være en “retfærdig og nyttig” mål for, hvor godt forskellige neurale net kan blive uddannet til nøjagtighed, og hvor godt de kan udføre inferens.
Feldman er angivet et par grunde til forebygger MLPerf bake-off. Den ene er, at MLPerf kan være mere et mål for, hvor godt virksomheder forberede sig til testen end en sand indikator for at få fast arbejde. Hans bemærkninger er ensbetydende med, at det benchmark, der kan gamed, så MLPerf resultater kan ikke være så stor betydning, som indsatsen indebærer.
Også: Cerebras har mindst en tre-årig føre til konkurrence med sin gigantiske AI chip, siger top investor
“Motor blok” af CS-1. Kobber del til venstre er det “kolde bord”, der sidder bag WSE chip. Messing blok er hvor koldt-vand pumper slut.
(Billede: Cerebras Systems Inc.)
“MLPerf er en tid-til-nøjagtighed nummer på et meget specifikt netværk, at de fleste mennesker ikke bruge,” sagde Feldman. Han var ikke specifikke, men statistik er opført af AI nystartede virksomheder vil have en tendens til at understrege, for eksempel, ResNet-50 uddannelse som et fælles mål, en temmelig gammel, neurale net på dette punkt.
“Chip-niveau sammenligninger aldrig pan ud på system-niveau,” tilføjede Feldman. “Benchmarks er faktisk aldrig opnås ved din kunde.”
Derfor, “Du er nødt til at have et system, og det er at blive sammenlignet med kunde arbejde.”
Mere vigtigt, at Feldman var, at “vi er de første til at annoncere en kunde i anvendelse af enhver af de nystartede” arbejder på AI chips, som der er mange af. Han hentydede til det faktum, Cerebras meddelte, Argonne National Laboratory af US Department of Energi, som sin første kunde tilbage i September. 17. Argonne taler i denne uge om sin brug af CS-1 i ting, såsom kræft-drug research.
Argonne, påpegede han, “havde indsat titusinder af Gpu’ er, og alligevel er de konsekvent at vælge os.”
I stedet for MLPerf og sådanne foranstaltninger, Cerebras tilbyder en række sammenligninger mellem CS-1 og andre systemer, foranstaltninger, understregede tirsdag i sin forberedte materialer.
Også: Cerebras ‘ s første kunde til giant AI chip er supercomputing hog AMERIKANSKE Department of Energy
For eksempel, virksomheden siger, at det er tre gange udførelsen af Google ‘s TPU 2 Pod, et system, der tager op til 10 standard stativer” til en værdi af udstyr. CS-1 er en 30th, at størrelsen og trækker kun en femtedel af den strøm af dette system, Cerebras krav.
Cerebras også hævder, at deres system har mere compute magt end 1.000 af Nvidia ‘s V100-Gpu’ er, mens der kun en fyrretyvendedel af størrelsen og halvtredsindstyvende magt. (Og, Cerebras argumenterer for, at det er meget lettere at få en enkelt CS-1 kører, end det er at binde sammen 1,000 V100s, en indsats, som tager flere måneder.)
De kan ikke være industri-standard benchmarks, men de er målestokken for succes, at Feldman mener, at verden bør fokusere på foranstaltninger, der kan faktisk sælge systemer i modsætning til kun at yde håneretten.
Kunstig Intelligens
Facial anerkendelse: Denne nye AI værktøj kan få øje på, når du er nervøs eller forvirret
Høj energi: Facebook ‘s AI guru LeCun forestiller sig, AI’ s næste grænse
Hvad er AI? Alt, hvad du behøver at vide om Kunstig Intelligens
Forskere bruge AI til at spore store hvide hajer (ZDNet YouTube)
Se denne robotten løse en Rubiks Terning med én hånd (CNET)
Kunstig intelligens: Cheat sheet (TechRepublic)
Relaterede Emner:
Big Data Analytics
Digital Transformation
CXO
Tingenes Internet
Innovation
Virksomhedens Software
| November 19, 2019 — 17:40 GMT (17:40 GMT)
| Emne: Kunstig Intelligens