AI chip unicorn som är på väg att revolutionera allt har datoriserad Graf på sin Kärnverksamhet

0
140

Noll

Om lyckan är ett annat ord för att vara på rätt plats vid rätt tidpunkt, du kunde säga att vi hade tur. Graphcore, de hetaste namn i AI chips, har funnits på vår radar ett tag nu, och en diskussion med Graphcore s grundare var planerat långt innan nyheten om att det bröt ut denna vecka.

Graphcore, som ni kanske har hört talas nu, precis säkrat ytterligare $200 miljoner euro i finansiering från BMW, Microsoft, och ledande finansiella investerare att leverera världens mest avancerade AI-chip i stor skala. Namn hör bl.a Atomico, Merian Puppan, Investment Company Limited, Sofina och Sequoia. Som Graphcore VD och Grundare Nigel Toon gemensamt, Graphcore tvungen att vända ner investerare för den här omgången, inklusive, ursprungligen, den ikoniska Sequoia fonden.

Också: AI Start Jaktfalk spins uppsjö av marker för maskininlärning

Graphcore är nu officiellt en enhörning, en värdering av sek 1,7 miljarder. Graphcore partner som Dell, världens största server producent, Bosch, världens största leverantör av elektronik för fordonsindustrin, och Samsung, världens största hemelektronik-företag, att ha tillgång till sina marker redan. Så, här är din chans att förbereda sig för, och förstår, en revolution du är på väg att se utspelas i en inte så avlägsen framtid.

Att lära sig hur hjärnan fungerar är en sak, modellering marker efter det är en annan

Graphcore är baserat i Bristol, STORBRITANNIEN, och grundades av halvledarindustrin veteraner Nigel Toon, VD, och Simon Knowles, CTO. Toon och Knowles var tidigare involverad i företag som Altera, Element14, och Icera som lämnat för sammanlagt värde på flera miljarder. Toon är positivt att de kan och kommer att störa halvledarindustrin mer än någonsin den här gången, att bryta vad han ser som nära monopol på Nvidia.

Nvidia är den dominerande aktören i AI arbetsbelastning, med sin GPU marker, och det håller på att utvecklas. Det finns fler aktörer på området, men Toon tror att det är bara Nvidia som har en tydlig, enhetlig strategi och en effektiv produkt på marknaden. Det finns också aktörer som Google, med sin TPU investera i AI marker, men Toon fordringar Graphcore har ledande kant och en fantastisk möjlighet att bygga upp ett imperium med sina IPU (Intelligent Processor Unit) chip. Han citerar framgång ARM mobila processorer jämfört med de etablerade företagen av den tid som ett exempel.

Också: Intel säger att det säljs mer än $1B i AI marker 2017

För att förstå hans förtroende, och att investerare och partners, vi behöver förstå vad som exakt Graphcore gör och hur det skiljer sig från konkurrenterna. Maskininlärning och AI är de som utvecklas snabbt och omvälvande teknik. Machine learning, som är kärnan i vad som kallas AI dessa dagar, är effektivt mycket effektivt mönster matchning, baserat på en kombination av lämpliga algoritmer (modeller) och uppgifter (utbildning set).

Vissa människor gå till det extrema för att ringa AI, i huvudsak, matrismultiplikation. Medan en sådan reduktionism är diskutabel, kvarstår faktum att mycket av maskininlärning handlar om att en effektiv data verksamheten i stor skala. Det är därför Grafikprocessorer är så bra på maskininlärning arbetsbelastning. Deras arkitektur, som ursprungligen utvecklades för grafikrendering, har visat sig vara mycket effektiv för uppgifter som utförs väl.

graphcore-wordmark-brain-scan-1920x1080.jpg

Graphcore revolutionerar hårdvara och mjukvara, med hjälp av Diagram

Vad Graphcore har gjort, dock, är att investera i en ny arkitektur helt och hållet. Det är därför Toon anser att de har fördel framför andra alternativ, som han ser som att lägga till ett ad-hoc, inkrementella förbättringar. Toon konstaterar att vad konkurrenterna gör är ett effektivt sätt att bygga specialiserade marker (Asic) som är mycket bra på vissa specifika matematiska operationer på data som är optimerade för en viss arbetsbelastning. Detta, menar han, kommer inte att göra för morgondagens arbetsbelastning.

Också: AI Start Cornami avslöjar detaljer om neurala nätet chip

Så, vad är så speciellt med Graphcore egen arkitektur? Det har varit en del spekulationer om att Graphcore är att bygga vad som kallas en neuromorphic AI chip: En processor byggd efter en modell av den mänskliga hjärnan, med dess neuroner och synapser som återspeglas i dess arkitektur. Knowles, men skingrar denna missuppfattning:

“Hjärnan är ett bra föredöme för dator arkitekter i denna sköna nya strävan maskinens intelligens. Men de styrkor och svagheter av kisel är mycket olika till de wetware. Vi har inte kopieras naturens mönster för flygmaskiner, eller för att ytan rörelseorganen, eller för motorer, eftersom vår tekniska material är olika. Så också med beräkning.

Till exempel, de flesta neuromorphic datorer projekt förespråkar kommunikation av elektriska spikar, som hjärnan. Men en grundläggande analys av energieffektivitet omedelbart slutsatsen att en elektrisk pik (två kanter) är hälften så effektiva för överföring av information som en enda kant, så efter hjärnan är inte automatiskt en bra idé. Jag tror att datorn arkitekter bör alltid sträva efter att lära sig hur hjärnan beräknar, men bör inte sträva efter att bokstavligen kopiera det i kisel.”

Att bryta Moores Lag, Överträffar Grafikprocessorer

Energieffektivitet är verkligen en begränsande faktor för neuromorphic arkitekturer, men det gäller inte bara det. Toon, när de ombads att kommentera på gränserna för Moores Lag, konstaterade att vi har gått långt utöver vad någon trodde var möjligt, och vi har fortfarande ytterligare 10 till 20 år framåt. Men, han fortsatte med att lägga, har vi kommit fram till vissa grundläggande begränsningar.

Toon tror att vi har nått den lägsta spänning som vi kan använda på dessa marker. Så, vi kan lägga till fler transistorer, men vi kan inte få dem att gå mycket snabbare: “Din bärbara dator körs fortfarande på 2Ghz, det är bara blev fler kärnor i den. Men nu behöver vi tusentals kärnor för att arbeta med maskininlärning. Vi behöver olika arkitektoniska processen att utforma marker på olika sätt. Gamla sätt att göra att det inte fungerar.”

Också: AI marker för big data och maskininlärning: Grafikprocessorer, Fpga: er

Toon sade IPUs är en generell maskin intelligens processor specifikt avsedd för maskinens intelligens. “En av fördelarna med vår arkitektur är att den är lämplig för många av dagens maskinen strategier för lärande som CNNs, men det är också mycket som är optimerade för olika maskinen strategier för lärande som förstärkning lärande och framtida strategier för”, sade han. “Den interparlamentariska unionen (IPU) arkitektur gör det möjligt för oss att överträffa Gpu-det kombinerar massiv parallellism med över 1000 oberoende processorkärnor per interparlamentariska unionen (IPU) och on-chip-minne så att hela modellen kan hållas på chip”.

Men hur gör IPU jämföra Nvidias Grafikprocessorer i praktiken? Nyligen har vissa maskininlärning riktmärken släpptes, där Nvidia har visat att överträffa konkurrenterna. När de bad om hans tankar om detta, Toon sa att de är medvetna om dem, men fokuserar på att optimera kundspecifika applikationer och arbetsbelastning just nu.

Han har tidigare konstaterat, men att data strukturer för lärande är olika, eftersom de är höga dimensionell och komplexa modeller. Detta, sade han, innebär att man behandlar data på olika sätt. Toon noteras att Grafikprocessorer är mycket kraftfull, men inte nödvändigtvis effektiva i hur de hanterar dessa datastrukturer: “Vi har möjlighet att skapa något 10, 100 gånger snabbare för dessa datastrukturer”.

pentagram-map-branding-graphcore-design-dezeen-2364-col-11.jpg

Graphcore intelligent processing unit (IPU) är gjorda av ett system av modulära plattor som kan monteras på olika sätt

Hastighet, dock är inte allt som krävs för att lyckas i detta spel. Nvidia, till exempel, lyckades inte bara på grund av att dess Klienter är kraftfulla. En stor del av sin framgång, och en konkurrensfördel över GPU konkurrenter som AMD, är den programvara som lager. De bibliotek som gjort att utvecklarna sammanfattning från hårdvara detaljerna och fokuserar på att optimera sin maskinlärande algoritmer, parametrar och processer har varit en viktig del av Nvidia: s framgång.

Också: AI start Flex Logix svartabörshajar betydligt högre prestanda än Nvidia

Nvidia håller på att utvecklas dessa bibliotek, med den senaste RAPIDS bibliotek lovande en 50-faldig GPU-acceleration av data analytics och lärande i förhållande till Processorer. Där gör Graphcore stå i jämförelse? Toon erkänt att programvaran är enormt viktigt, går det att lägga till att, vid sidan av att bygga världens mest komplexa kisel-processor, Graphcore har även byggt den första verktyg kedja som utformats speciellt för maskinens intelligens, som kallas Poppel.

Enligt Toon:

“När Graphcore började fanns det ingen TensorFlow eller PyTorch, men det var tydligt att i syfte att rikta sig till denna nya värld av kunskap modeller vi var tvungna att ompröva den traditionella mikroprocessor programvara stack. Världen har gått från utvecklare att definiera allt i form av vektorer och skalärer till en av grafer och tensorer.

I denna nya värld, traditionella verktyg, kedjor inte har den kapacitet som krävs för att ge en enkel och öppen plattform för utvecklare. De modeller och applikationer Beräkna 2.0 är massivt parallella och lita på miljontals identiska beräkningar ska utföras på samma gång.

Dessa arbetsbelastning att diktera för maximal effektivitet modeller måste vara bosatt och måste tillåta att data att strömma genom dem. Befintliga arkitekturer som är beroende av strömmande både programkod och data genom processorn för att genomföra dessa modeller är ineffektiva för detta ändamål både i hårdvara konstruera och i de metoder som används i verktyget kedjor som stöder dem.”

Programvara 2.0, Beräkna 2.0, och Beräkningsmässig Graphs

Graphcore talar om att Beräkna 2.0, andra talar om Software 2.0. Dessa två är starkt relaterade som det nya paradigmet för applikationsutveckling. När man diskuterar Beräkna 2.0, Toon noteras att för 70 år har vi berättat för datorer vad du ska göra steg för steg i ett program, som är bekant algoritmisk process. Nu, sade han, vi lär oss av data.

Snarare än att programmera maskinen, maskinen lär sig — alltså, maskininlärning. Detta är i grunden förändra utveckling och beteende program. Processer för att bygga program som behöver anpassas, och programvara kan visa icke-deterministisk, eller åtminstone icke-förklarlig beteende. Detta verkar vara framtiden, dock, och Toon påpekade att tillräckligt med data och beräkna, vi kan bygga modeller för att överträffa människan i mönster erkännande uppgifter.

Också: AI omättliga aptit för kisel kräver nya marker

“När vi talar om Poppel är avsedd för maskinens intelligens vad betyder det, vad är det för egenskaper som sådant ett verktyg kedjan kräver. Det måste först och främst använda grafen som sin nyckel konstruera. I diagrammet representerar den kunskap som modell och tillämpning som är byggd av verktyget kedjan. Poppel är byggt runt en datoriserad graf abstraktion, den mellanliggande representation (IR) av dess graf kompilator är ett stort riktad graf,” Toon sagt.

Graphcore, liksom andra, är med hjälp av diagram som en grundläggande metafor som sitt förhållningssätt till programvara och beräkna för maskinens intelligens är byggd. Toon noteras att diagrammet bilder som delas av Graphore är den interna representationen av deras graf-kompilator. En representation av hela kunskaper modell bryts ner för att exponera den enorma parallella arbetsbelastning, som Graphcore scheman och kör över IPU-processor.

Interparlamentariska unionen (IPU) processor och Poppel var utformade tillsammans, och Toon sade denna designfilosofi av både kisel arkitektur och programmering miljö att utvecklas på detta sätt speglar kulturen och miljön i Graphcore:

“Den teknik vi behöver är en öppen och samverkande i hur vi bygger vår teknik. Poppel stöder design beslut som vi gjort i våra marker, bygga och köra mycket optimerad maskin intelligens modeller på plats med en mycket optimerad BSP (bulk synkron parallella) utförande modell.

Det är byggt för att stödja begrepp att separera beräkna och kommunikation för energieffektivitet och även att samverka med en mängd plattformar för att ta bort de flaskhalsar som pesten befintliga plattformar som håller på att utökas med stöd för lärande snarare än att vara konstruerade för det.

Tillsammans med stöder och ger användare tillgång till våra högpresterande IPU plattform, Poppel verktyg kedjan har för att vara lätt att använda för utvecklare. Det har att integreras sömlöst in i backend för maskininlärning ramar som PyTorch och Tensorflow och ger en körtid för nätverk interchange format som ONNX både för inferens och utbildning arbetsbelastning.”

Poppel stöder TensorFlow, PyTorch, ONNX och Keras nu, och kommer att rulla ut stöd för andra maskin lärande ramar under 2019 och nya ramar visas. Toon sade att, med hjälp av Poppel som den bakre änden av dessa ramar, kan användare få tillgång till fördelarna med deras modeller passerade genom en optimering diagram kompilator för alla krävs arbetsbelastning, snarare än bara enkel mönstermatchning som får användas i befintliga plattformar.

Också: Chip start Efinix hoppas att bootstrap-AI insatser i sakernas internet

“Det handlar inte bara om att köra de modeller och konstruktioner av idag, innovatörer och forskare behöver en plattform för att utveckla och utforska morgondagens lösningar med en lätt att använda och programmerbar plattform”, sade han. “Det gäller maskinens intelligens hålls tillbaka av programvara bibliotek för plattformar, som inte är öppen och utbyggbar ger en svart låda för att utvecklare som vill förnya och utveckla idéer.”

Revolutionen är redo att leverera, grafen-baserade, och öppen källkod

Om du är som oss, du kanske undrar vad dessa diagram är som utöver sina fantastiska bilder. Vilken typ av strukturer, modeller och formalism inte Graphcore använda för att representera och arbeta med diagram? Skulle de gå så långt som att kalla dem kunskap grafer?

“Vi kallar dem bara computational grafer. Alla modeller är bäst uttrycks som grafer-detta är hur TensorFlow fungerar lika bra. Det är bara det att våra grafer är flera storleksordningar mer komplexa eftersom vi har storleksordningar parallellism för grafer för att utnyttja på våra marker, säger Toon.

Men om du verkligen är nyfiken, det är goda nyheter-du har bara att vänta lite längre. Toon lovat att över tid Graphcore kommer att ge IPU utvecklare fullt öppen källkod tillgång till dess optimerade diagram bibliotek så att de kan se hur Graphcore bygger applikationer. Vi ser verkligen fram emot det, lägga till det till Graphcore nuvarande och framtida planer för att spåra.

Även: Träffa Jetson Xavier: Nvidia: s AI-chip

Graphcore är redan frakt produktion av hårdvara till kunder med tidig åtkomst. Toon sade Graphcore säljer PCIe-kort, som är redo att slot i server-plattformar, som heter C2 IPU-Processor kort. De innehåller två IPU-processorer vardera. Han konstaterade också att de arbetar med Dell som en kanal partner för att leverera Dell-server plattformar till företagskunder och cloud kunder.

Enligt Toon, produkter som kommer att bli mer allmänt tillgänglig nästa år. Initiala fokus ligger på data center, cloud, och ett antal utvalda edge-program som kräver tunga beräkna — som autonoma bilar. Graphcore är för närvarande inte riktar konsumenten kanten enheter som mobiltelefoner.

Graphcore leverera på sina löften kommer att vara inget mindre än en revolution, både på hårdvara och mjukvara lager.

Tidigare och relaterade täckning:

Vad är AI? Allt du behöver veta

En verkställande guide till artificiell intelligens, från maskininlärning och allmänna AI att neurala nätverk.

Vad är djupt lärande? Allt du behöver veta

Lowdown på djupt lärande: från hur det förhåller sig till de bredare fält av maskinen lärande genom hur man kommer igång med det.

Vad är lärande? Allt du behöver veta

Denna guide förklarar vad lärande är, hur den är relaterad till artificiell intelligens, hur det fungerar och varför det är viktigt.

Vad är cloud computing? Allt du behöver veta om

En introduktion till cloud computing rätt från grunderna upp till IaaS och PaaS, hybrid, offentliga och privata moln.

Relaterade artiklar:

Nvidia AI-forskning pekar på en utveckling av chip företag
Huawei lanserar AI Ascend marker
Wave Design och nära att avslöja sin första AI-system
Nvidias utmärkt förfalskningar packa upp den svarta lådan av AI Qualcomm satsar $100M på nya AI venture fund CNETIBM ökar AI chip hastighet, föra djupa lärande TechRepublic

Relaterade Ämnen:

Hårdvara

Digital Omvandling

CXO

Sakernas Internet

Innovation

Affärssystem

0