Noll

Intels Nervana spånskivor
Intel
Intel på tisdag tar wraps mindre av Nervana Neurala Nätverk Processor (NN), tidigare känd som “Sjön Krön,” ett chip tre år i vardande, som är avsedd uttryckligen för AI och djupt lärande. Tillsammans med att förklara sin unika arkitektur, Intel meddelade att Facebook har varit en nära samarbetspartner när det förbereder sig för att få Nervana NN till marknaden. Chipmaker också lagt ut början på en produkt färdplan.
Medan det finns plattformar som finns tillgängliga för djupt lärande program, detta är den första av sitt slag — byggt från grunden för AI — det är kommersiellt tillgängliga, Naveen Rao, corporate VP av Intels Artificiell Intelligens Produkter Group, till ZDNet. Det är ovanligt för Intel att leverera en helt ny klass av produkter, sade han, så Nervana NN familj visar Intels engagemang för AI utrymme.
AI är revolutionerande design, vända en dator till en “data slutsats maskin,” sa Rao. “Vi kommer att se tillbaka om 10 år och se att detta var en brytpunkt.”
Intel planerar att leverera kisel till ett par nära samarbetspartners för detta året, inklusive Facebook. Intel samarbetar nära med stora kunder som Facebook för att fastställa rättigheter uppsättning av funktioner som de behöver, Rao förklaras. I början av nästa år, kommer kunderna att kunna bygga lösningar och sprida dem via Nervana Moln, en platform-as-a-service (PaaS) som drivs av Nervana teknik. Alternativt kan de använda den Nervana Djupt Lärande apparaten, som är effektivt Nervana Moln på plats.
I ett blogginlägg, Intel VD Brian Krzanich sade Nervana NN kommer att göra det möjligt för företag “för att utveckla helt nya klasser av AI-program för att maximera mängden av uppgifter som behandlas och göra det möjligt för kunderna att hitta större insikter–omvandla sina företag.”
Till exempel, sociala medier för företag som Facebook kommer att kunna leverera fler personliga upplevelser för användarna och mer riktade nå till annonsörer, Krzanich noteras. Han citerade andra fall, såsom tidiga diagnostiska verktyg i sjukvården, förbättringar i vädret förutsägelser och framsteg inom autonom körning.
Med flera generationer av Nervana NN produkter i pipeline, Intel säger att det är på god väg att nå eller överträffa sina 2016 lovar att uppnå en 100-faldig ökning i deep learning utbildning prestanda 2020. Intel planerar att sätta ut Nervana produkter på en årlig kadens eller möjligen snabbare.
“Detta är en ny plats, och iteration och evolution är verkligen viktigt i detta utrymme,” sa Rao.
Det finns tre unika arkitektoniska egenskaper till Nervana NN, vilket ger flexibilitet för att stödja djupt lärande primitiver och samtidigt göra centrala delar av hårdvaran så effektivt som möjligt.
Den första är en annan typ av minne arkitektur som möjliggör ett bättre utnyttjande av computational resurser på ett chip. “I en generell processor, vi vet inte var de uppgifterna kommer ifrån, vad vi ska göra med det, där vi kommer att skriva ut det till”, Rao förklaras. “I AI, det visar sig att du vet på framsidan.”
Av denna anledning, Intel Nervana NN inte har en vanlig cache hierarki. On-chip-minne förvaltas av programvara direkt. Ytterst innebär detta chip uppnår snabbare utbildning gånger för djupt lärande modeller.
Nästa, Rao sagt, Nervana NN använder en nyutvecklad numeriska format, som Intel kallar Flexpoint, för att uppnå högre grad av genomströmning. Allmänt ändamål marker vanligtvis förlitar sig på modeller som bygger på fortlöpande nummer för att minska data “brus”. Men eftersom neurala nätverk är mer toleranta av data buller-och det kan även hjälpa vid djupa lärande utbildning – “vi kan komma undan med många färre bitar av representation för varje beräkning,” Rao förklaras.
För det tredje, Intel Nervana NN är utformad med hög hastighet on – och off-chip-anslutningar som gör det möjligt för massiva dubbelriktad dataöverföring. Detta kan på ett effektivt sätt tillåta flera marker att agera som en enda stor virtuell chip, vilket möjliggör större neurala nätverk som kan utbilda snabbare.
Med tillägg av Nervana NN, Intel erbjuder nu en marker för en komplett spektrum av AI användningsfall, Rao sagt. Det kompletterar Intel ‘ s övriga produkter som används för AI-program, inklusive Xeon Skalbar processorer och Fpga: er.
“Vi ser detta som en portfölj strategi, och vi är unikt positionerat för att ta denna strategi,” sade han. “Vi kan verkligen hitta den bästa lösningen för våra kunder, inte bara en en-storlek-passar-alla typ av modell.”
Till exempel, om en ny kund var i början av deras “AI resa”, Rao sade, “vi har verktygen för att få upp dem och kör snabbt på en CPU, vilket de förmodligen redan har.” Deras behov att växa, “vi har att tillväxten i vägen för dem,” fortsatte han, ringer Nervana NN den “ultimata högpresterande lösning” för djupt lärande.
Tidigare och relaterade täckning
AI utbildning behöver ett nytt chip arkitektur: Intel
Snarare än att strippa ner en av sina befintliga arkitekturer för att göra ett chip som är optimerade för AI, Intel gick ut och köpte en.
Intel lanserar självlärande AI-chip Loihi
Intel sade sin nya AI-test chip kombinerar utbildning och inferens, vilket innebär att autonoma maskiner som kan anpassa sig till lärdomar från sin omgivning i realtid istället för att vänta på uppdateringar från molnet.
Intel har investerat mer än $1 miljard i AI företag
Intels VD Brian Krzanich skrev en debattartikel på måndagen att svartabörshajar bolagets AI investeringar.
0