Nul
Hvis lykke er et andet ord for at være på det rigtige sted på det rigtige tidspunkt, man kunne sige, at vi fik heldig. Graphcore, det hotteste navn i AI-chips, der har været på vores radar i et stykke tid nu, og en diskussion med Graphcore stiftere var planlagt godt før du nyheder om det brød ud i denne uge.
Graphcore, som du måske har hørt nu, bare sikret en anden $200 millioner i støtte fra BMW, Microsoft og førende finansielle investorer til at levere verdens mest avancerede AI chip på skalaen. Navne omfatter den holder af, Atomico, Merian Chrysalis, Investment Company Limited, Sofina, og Sequoia. Som Graphcore CEO og Grundlægger Nigel Toon fælles, Graphcore var nødt til at skrue ned investorer til denne runde, herunder, oprindeligt, den ikoniske Sequoia fonden.
Også: AI Start Jagtfalk spins væld af chips for machine learning
Graphcore er nu officielt en enhjørning, med en værdiansættelse af $1.7 milliarder. Graphcore ‘ s partnere som Dell, verdens største server producent, Bosch, verdens største leverandør af elektronik til bilindustrien, og Samsung, der er verdens største forbruger elektronik virksomhed, har adgang til sine chips. Så her er din chance for at forberede sig til, og forstå, at revolutionen du er ved at se udfolde sig i ikke-så-fjern fremtid.
Du lærer, hvordan hjernen virker, er én ting, modellering chips efter det er en anden
Graphcore er baseret i Bristol, UK, og blev grundlagt af halvleder-industrien veteraner Nigel Toon, CEO, og Simon Knowles, CTO. Toon og Knowles blev tidligere har været involveret i virksomheder som Altera, Element14, og Icera, der kom ud for en samlet værdi på flere milliarder. Toon er positive, de kan, og vil, give anledning til forstyrrelser halvleder-industrien mere end nogensinde før, denne gang omkring, ved at bryde, hvad han ser som den nærmeste monopol på Nvidia.
Nvidia er den dominerende aktør i AI arbejdspres, med sin GPU chips, og det holder stadig udvikling. Der er flere aktører i området, men Toon mener, at det kun er Nvidia der har en klar og sammenhængende strategi og en effektiv produkt på markedet. Der er også spillere som Google, med sin TPU, der investerer i AI chips, men Toon krav Graphcore har den førende kant og en fantastisk mulighed for at opbygge et imperium med sin IPU (Intelligent Processor Unit) chip. Han citerer succes for ARM mobile processorer versus etablerede af den tid, som et eksempel.
Også: Intel siger, at det solgte mere end $1B i AI chips i 2017
For at forstå hans tillid, og at investorer og partnere, er vi nødt til at forstå, hvad Graphcore gør, og hvordan er det anderledes fra konkurrenterne. Machine learning og AI er den mest rivende udvikling og forstyrrende teknologier. Machine learning, som er kernen i det, der kaldes AI i disse dage, er er faktisk en meget effektiv pattern matching, der er baseret på en kombination af passende algoritmer (modeller) og data (uddannelse sæt).
Nogle folk gå til det yderste for at kalde AI, i det væsentlige, matrix multiplikation. Mens en sådan reduktionisme er tvivlsom, er det faktum, at meget af machine learning handler om effektiv data operationer på skalaen. Dette er grunden til, at Gpu ‘ er er så god til machine learning arbejdsmængder. Deres arkitektur, der oprindeligt er udviklet for grafik rendering, har vist sig meget effektiv til data operationer.

Graphcore revolutionerer hardware og software, ved hjælp af Grafer
Hvad Graphcore har gjort, er dog at investere i en ny arkitektur helt. Dette er grunden til, at Toon mener, at de har den fordel i forhold til andre muligheder, som han ser som at tilføje ad-hoc, trinvise forbedringer. Toon bemærker, at hvad konkurrenterne gør, er det effektivt at opbygge specialiserede chips (ASICs), der er meget godt på nogle specifikke matematisk operation på data, der er optimeret til et bestemt arbejdsbyrde. Dette, siger han, vil ikke gøre, for i morgen er arbejdsmængder.
Også: AI Start Cornami afslører detaljer om neurale net chip
Så, hvad er så specielt ved Graphcore ‘ s egen arkitektur? Der har været nogle spekulationer om, at Graphcore er ved at opbygge, hvad der kaldes en neuromorphic AI chip: En processor, der er bygget efter en model af den menneskelige hjerne, med dens neuroner og synapser, der spejler sig i sin arkitektur. Knowles, men fordriver denne misforståelse:
“Hjernen er et fantastisk forbillede for computer arkitekter i denne fagre nye bestræber af maskinen intelligens. Men de styrker og svagheder, silicium, er meget anderledes end wetware. Vi har ikke kopieret naturens mønster for flyvende maskiner, eller til overfladen bevægelse, eller for motorer, fordi vores tekniske materialer er forskellige. Så også med beregningen.
For eksempel, de fleste neuromorphic computing projekter fortaler for meddelelse af elektriske pigge, som hjernen. Men en grundlæggende analyse af energieffektivitet straks konkluderer, at en elektrisk spike (to kanter) er halvt så effektiv for fremsendelse af oplysninger, som en enkelt kant, så følgende hjernen er ikke automatisk en god idé. Jeg tror, computer arkitekter bør altid stræbe efter at lære, hvordan hjernen beregner, men bør ikke stræbe efter at bogstaveligt talt kopiere den i silicium.”
At bryde Moore ‘s Lov, klarede sig bedre end Gpu’ er
Energi-effektivitet er faktisk en begrænsende faktor for neuromorphic arkitekturer, men det gælder ikke kun der. Toon, når bedt om at kommentere på grænserne for Moore ‘ s Lov, bemærkes, at vi har gået langt ud over, hvad nogen troede var muligt, og vi har stadig en anden 10 til 20 års fremskridt. Men han fortsatte med at tilføje, at vi har nået nogle fundamentale grænser.
Toon mener, vi er nået til den laveste spænding, som vi kan bruge på disse chips. Så kan vi tilføje flere transistorer, men vi kan ikke få dem til at gå meget hurtigere: “Din bærbare computer kører stadig på 2Ghz, det er bare fået flere kerner i det. Men nu har vi brug for tusindvis af kerner at arbejde med machine learning. Vi har brug for en anderledes arkitektonisk proces, til at designe chips på forskellige måder. De gamle måder at gøre det virker ikke.”
Også: AI chips for big data og machine learning: Gpu ‘ er, Fpga
Toon sagde Ipu ‘ er en general purpose machine intelligence-processor, der er specifikt designet til maskinen intelligens. “En af fordelene ved vores arkitektur er, at det er egnet til masser af dagens machine learning metoder som CNNs, men det er også meget, der er optimeret til forskellige machine learning metoder som forstærkning læring og de fremtidige strategier for,” sagde han. “IPU-arkitektur giver os mulighed for at udkonkurrere Gpu’ er — det kombinerer massiv parallelisme med over 1000 uafhængige processorkerner per IPU og on-chip hukommelse, så hele modellen kan holdes på chip”.
Men hvordan gør IPU sammenligne med Nvidia ‘s Gpu’ er i praksis? For nylig er nogle machine learning benchmarks, der blev udgivet, hvor Nvidia har vist sig at klare sig bedre end konkurrence. Når du bliver bedt om hans tanker om dette, Toon sagde, at de er klar over dem, men med fokus på optimering af kunde-specifikke applikationer og arbejdsopgaver på lige nu.
Han har tidligere nævnt, er dog, at data strukturer for machine learning er forskellige, som de er high dimensional og komplekse modeller. Dette, sagde han, betyder, at der beskæftiger sig med data på en anden måde. Toon bemærkes, at Gpu ‘ er er meget stærk, men ikke nødvendigvis effektiv i, hvordan de håndterer disse data strukturer: “Vi har mulighed for at skabe noget, 10, 100 gange hurtigere i disse datastrukturer”.
Graphcore er intelligent processing unit (IPU) er lavet af et system af modulære brikker, som kan samles på forskellige måder
Hastighed, men det er ikke alt, det tager at få succes i dette spil. Nvidia, for eksempel, ikke lykkes, blot fordi dens Gpu ‘ er er kraftfuld. En stor del af sin succes, og en differentiator over GPU konkurrenter som AMD, er i den software lag. De biblioteker, der gjorde det muligt for udviklere at abstrahere fra hardware detaljerne og fokus på at optimere deres machine learning algoritmer, parametre og processer, har været en vigtig del af Nvidia ‘ s succes.
Også: AI start Flex Logix billethajer langt højere ydelse end Nvidia
Nvidia holder udvikler disse biblioteker, og med den seneste RAPIDS bibliotek lovende en 50-fold GPU acceleration af data analytics og machine learning i forhold til Cpu ‘ er. Hvor er Graphcore stå i sammenligning? Toon erkendt, at software er enormt vigtigt, at gå med at tilføje, at, sideløbende med at opbygge et af verdens mest komplekse silicium processor, Graphcore har også bygget den første software-værktøj, kæde er designet specielt til maskinen intelligens, kaldet Poppel.
I henhold til Toon:
“Når Graphcore begyndte, var der ingen TensorFlow eller PyTorch, men det var klart, at for at målrette denne nye verden af viden modeller, vi var nødt til at nytænke den traditionelle mikroprocessor software stack. Verden har bevæget sig fra udviklere, der definerer alt i form af vektorer og skalarer til en af grafer og tensors.
I denne nye verden, traditionelle værktøj, kæder, der ikke har de nødvendige kapaciteter til at give en let og åben platform for udviklere. De modeller og anvendelser af Compute 2.0 er massivt parallelle og er afhængige af millioner af ens beregninger, der skal udføres på samme tid.
Disse arbejdsopgaver dikterer, at for at opnå maksimal effektivitet modeller skal være hjemmehørende og skal give data til strøm gennem dem. Eksisterende arkitekturer, der er afhængige af streaming både program-kode og data via processoren til at gennemføre disse modeller er ineffektive til dette formål, både i hardware konstruere og i de metoder, der er brugt i værktøj, kæder, der understøtter dem.”
Software 2.0, Beregne 2.0, og Beregningsmæssige Grafer
Graphcore taler om Beregne 2.0, andre taler om Software 2.0. Disse to er stærkt relateret, som det nye paradigme for applikationsudvikling. Når vi diskuterer Beregne 2.0, Toon bemærkes, at for 70 år har vi fortalt computere, hvad du skal gøre trin for trin i et program, som er den velkendte algoritmisk proces. Nu, sagde han, at vi lærer af data.
Snarere end at programmere maskinen, maskinen lærer — og derfor, machine learning. Det er fundamentalt at ændre den udvikling og adfærd af applikationer. Processer til opbygning af software, der skal tilpasses, og software, der kan vise ikke-deterministisk, eller i det mindste, ikke kan forklares adfærd. Dette synes at være den måde, i fremtiden, dog, og Toon påpegede, at med nok data og beregne, vi kan bygge modellerne, der klarer sig bedre end mennesker i mønstergenkendelse opgaver.
Også: AI ‘ s umættelige appetit for silicium kræver nye chips
“Når vi taler om Poppel, der er designet til maskinen intelligens hvad betyder det, og hvad er de karakteristika, der er sådan et værktøj kæde kræver. Det skal først og fremmest bruge grafen som sin nøgle konstruere. Grafen repræsenterer den viden, model og det program, der er bygget af af kæden. Poppel er bygget op omkring en beregningsmæssige graf abstraktion, de mellemliggende repræsentation (IR) af dens graf compiler er et stort orienteret graf,” Toon sagde.
Graphcore, ligesom andre, er ved hjælp af grafer, som er en grundlæggende metafor på som sin tilgang til software og beregne for maskinen intelligens er bygget. Toon bemærkes, at grafen billeder, som deles af Graphore er den interne repræsentation af deres graf compiler. En repræsentation af hele den viden-model brudt ned for at afsløre de store parallelle arbejdsmængder, som Graphcore tidsplaner og udfører på tværs af IPU-processor.
IPU-processor og Poppel blev designet sammen, og Toon sagde dette design-filosofi af både silicon arkitektur og programmering af software miljø, der udvikles på denne måde afspejler den kultur og det miljø af Graphcore:
“Den teknik, vi gør, er åben og samarbejdsorienteret i, hvordan vi bygger vores teknologi. Poppel understøtter design beslutninger, vi har taget i vores chip, bygning og kører stærkt optimeret machine intelligence modeller på plads med en stærkt optimeret BSP (bulk synkron parallel) udførelse model.
Det er bygget til at understøtte de begreber, der adskiller beregne og kommunikation for strømeffektivitet, og også til at interface med vært platforme til at fjerne de flaskehalse, der plager eksisterende platforme, der er ved at blive suppleret med støtte til machine learning i stedet for at være designet til det.
Sammen med støtte og giver brugerne adgang til vores high-performance IPU platform, Poppel af kæden skal være let at bruge for udviklere. Det er til at integrere problemfrit ind i backend af machine learning rammer såsom PyTorch og Tensorflow og give en runtime for netværk udveksling formater såsom ONNX både for inferens og uddannelse arbejdsbyrde.”
Poppel understøtter TensorFlow, PyTorch, ONNX og Keras nu, og vil rulle ud støtte for andre machine learning rammer i løbet af 2019, og som nye rammer vises. Toon sagt, at, ved hjælp af Poppel som bagenden af disse rammer, kan brugerne få adgang til fordelene ved at have deres machine learning modeller gik gennem en optimering af graf-kompileren for alle nødvendige arbejdsmængder, snarere end blot det enkle mønster, matching, der bliver brugt i legacy-software-platforme.
Også: Chip start Efinix håber, at bootstrap AI indsats i tingenes internet
“Det er ikke bare om at køre modeller og konstruktioner af i dag, opfindere og forskere har brug for en platform til at udvikle og udforske løsninger af i morgen med en nem at bruge og programmerbar platform,” sagde han. “Inden for machine intelligence er at blive holdt tilbage af software-biblioteker for hardware-platforme, som ikke er åbne og udvides give en sort boks til udviklere, der ønsker at innovere og udvikle ideer.”
Revolutionen er klar til skibet, graf-baseret, og åbne kilder
Hvis du er ligesom os, kan du spekulerer på, hvad de grafer som er uden for deres bemærkelsesværdige billeder. Hvilken slags strukturer, modeller og formalisme er Graphcore bruge til at repræsentere og arbejde med grafer? De ville gå så langt som til at kalde dem viden grafer?
“Vi bare kalde dem beregningsmæssige grafer. Alle machine learning modeller er bedst udtrykt som grafer — dette er, hvordan TensorFlow fungerer så godt. Det er bare at vores grafer er størrelsesordener mere kompleks, fordi vi har størrelsesordener parallelitet til de grafer til at udnytte på vores chips,” sagde Toon.
Men hvis du virkelig er nysgerrig, er der gode nyheder-du bare nødt til at vente lidt længere. Toon lovet, at over tid Graphcore vil være at give IPU udviklere fuld open source adgang til sin optimeret graf biblioteker, så de kan se, hvordan Graphcore bygger programmer. Vi er helt sikkert ser frem til det, tilføje det til Graphcore ‘ s nuværende og fremtidige planer om at spore.
Også: Mød Jetson Xavier: Nvidia ‘ s AI-chip
Graphcore er allerede shipping produktion af hardware til tidlig adgang til kunder. Toon sagde Graphcore sælger PCIe-kort, som er klar til at slot i server-platforme, kaldet C2 IPU-Processor kort. De indeholder to IPU-processorer hver. Han bemærkede også, at de arbejder med Dell som en kanal partner til at levere Dell server platforme til virksomhedens kunder og cloud kunder.
I henhold til Toon, produkter vil blive mere udbredt til rådighed næste år. Indledende fokus er på datacenter, cloud, og vælg antallet af kant-applikationer, der kræver tunge beregne — som autonome biler. Graphcore er ikke i øjeblikket rettet mod forbrugeren kant enheder som mobiltelefoner.
Graphcore leverer på sine løfter, vil være intet mindre end en revolution, både på hardware og software lag.
Tidligere og relaterede dækning:
Hvad er AI? Alt, hvad du behøver at vide
En executive guide til kunstig intelligens, fra machine learning og generelt AI til neurale netværk.
Hvad er dyb læring? Alt, hvad du behøver at vide
Den lowdown på en dyb læring: fra hvordan det relaterer til det bredere felt af machine learning igennem til, hvordan du kommer i gang med det.
Hvad er machine learning? Alt, hvad du behøver at vide
Denne vejledning forklarer, hvad machine learning er, hvordan det er relateret til kunstig intelligens, hvordan det fungerer, og hvorfor det er vigtigt.
Hvad er cloud computing? Alt, hvad du behøver at vide om
En introduktion til cloud computing-lige fra det grundlæggende op til IaaS og PaaS, hybrid, offentlige og private cloud.
Relaterede historier:
Nvidia AI forskning peger på en udvikling af chip forretning
Huawei lancerer AI Ascend chips
Bølge Computing tæt på at afsløre sin første AI-system
Nvidia ‘ s fremragende forfalskninger pak black box af AI Qualcomm satser $100 på nye AI venture-fond CNETIBM øger AI chip hastigheden, så der er dybt læring TechRepublic
Relaterede Emner:
Hardware
Digital Transformation
CXO
Tingenes Internet
Innovation
Virksomhedens Software
0