Intel onthult de Nervana Neurale Netwerk Processor

0
135

Nul

14131nervanachipboard101217angle2a.png

Intel ‘ s Nervana chip raad

Intel

Intel op dinsdag is het nemen van de wraps uit van de Nervana Neurale Netwerk Processor (NNP), voorheen bekend als “het Meer van Crest,” een chip drie jaar in de maak, die is ontworpen speciaal voor AI en diep leren. Samen met het uitleggen van de unieke architectuur, Intel aangekondigd dat Facebook heeft een nauwe medewerker die zich voorbereidt om de Nervana NNP op de markt. De chipmaker ook gelegd op het begin van een product roadmap.

Er zijn platforms beschikbaar voor deep learning applicaties, dit is de eerste van zijn soort — vanaf de grond opgebouwd voor AI — dat is in de handel verkrijgbaar, Naveen Rao, corporate vice-president van Intel de Kunstmatige Intelligentie van de Producten van de Groep, vertelde ZDNet. Het is zeldzaam dat Intel voor het leveren van een geheel nieuwe klasse van de producten, zei hij, dus de Nervana NNP familie toont aan dat Intel ‘ s toewijding aan de AI ruimte.

AI is een revolutie computing, het aanzetten van een computer in een “data-inferentie machine,” Rao zei. “We zijn van plan om terug te kijken op 10 jaar en zie dat dit het buigpunt.”

Intel plannen om het leveren van silicium tot een paar close medewerkers dit jaar, waaronder Facebook. Intel werkt nauw samen met grote klanten zoals Facebook om te bepalen van de rechten van de functies die ze nodig hebben, Rao uitgelegd. Begin volgend jaar kunnen klanten oplossingen te bouwen en implementeren van hen via de Nervana Cloud, een platform-as-a-service (PaaS) aangedreven door Nervana technologie. Als alternatief kunnen zij gebruik maken van de Nervana Diep Leren apparaat, dat feitelijk de Nervana Cloud op locatie.

In een blog post, Intel CEO Brian Krzanich zei de Nervana NNP kunnen bedrijven het ontwikkelen van geheel nieuwe klassen van AI-toepassingen die het maximaliseren van de hoeveelheid gegevens die worden verwerkt en kunnen klanten vinden meer inzicht–het transformeren van hun bedrijven.”

Bijvoorbeeld, social media bedrijven als Facebook zal kunnen leveren, meer persoonlijke ervaringen van gebruikers en meer gericht bereik voor adverteerders, Krzanich opgemerkt. Hij verwees naar andere use cases, zoals het begin van de diagnostische hulpmiddelen in de gezondheidszorg, verbeteringen in de weer voorspellingen en de vooruitgang in autonoom rijden.

Met meerdere generaties van Nervana NNP-producten in de pijplijn, Intel zegt dat het op weg is om te voldoen aan of zelfs overschrijden zijn 2016 belofte op het bereiken van een 100-voudige toename in het diepe leren opleiding prestaties in 2020. Intel plannen op het blussen van Nervana producten op een jaarlijkse cadans of eventueel sneller.

“Dit is een nieuwe ruimte, en iteratie en evolutie zijn erg belangrijk in deze ruimte,” Rao zei.

Er zijn drie unieke architectonische kenmerken van de Nervana NNP, die zorgen voor de flexibiliteit ter ondersteuning van diep leren primitieven, terwijl het maken van core hardware onderdelen zo efficiënt mogelijk.

De eerste is een ander soort van memory architectuur die zorgt voor een betere benutting van de rekenkracht op een chip. “In een general purpose processor, we weten niet waar de gegevens vandaan komen, wat we gaan doen, waar we heen gaan om het te schrijven naar de” Rao uitgelegd. “AI, het blijkt dat je het weet.”

Om deze reden is de Intel Nervana NNP niet een standaard cache hiërarchie. On-chip geheugen wordt beheerd door de software direct. Dit betekent uiteindelijk dat de chip bereikt sneller trainingstijden diep leren modellen.

Volgende, Rao zei, de Nervana NNP maakt gebruik van een nieuw ontwikkelde numerieke indeling, waarbij Intel oproepen Flexpoint, tot het bereiken van hogere graden van doorvoer. Algemene-doel chips meestal rekenen op modellen gebouwd op doorlopende nummers te verminderen gegevens “geluid”. Echter, omdat neurale netwerken zijn meer tolerant ten opzichte van gegevens geluid — en het kan zelfs helpen in deep learning-training – “we weg kunnen krijgen met veel minder bits van vertegenwoordiging voor elke berekening,” Rao uitgelegd.

Ten derde, de Intel Nervana NNP is ontworpen met een hoge snelheid aan – en uit-chip verbindt waarmee enorme bi-directionele data-overdracht. Dit kan effectief kunnen meerdere chips op te treden als één groot virtueel-chip, waardoor grotere neurale netwerken, die de trein sneller.

Met de toevoeging van de Nervana NNP, Intel biedt nu chips voor een volledig spectrum van AI use cases, Rao zei. Het is een aanvulling op Intel ‘s andere producten gebruikt voor de AI-toepassingen, met inbegrip van Xeon Schaalbare processors en fpga’ s.

“Wij zien dit als een portfolio-benadering, en we in de unieke positie om die aanpak,” zei hij. “We kunnen nu echt vinden van de beste oplossing voor onze klant, niet slechts een one-size-fits-all model.”

Bijvoorbeeld, als een nieuwe klant werden aan het begin van hun “AI reis,” Rao zei: “wij hebben de tools om ze te krijgen up and running snel op een CPU, die ze waarschijnlijk al hebben.” Als hun behoeften te groeien, “we hebben die groei pad voor hen,” vervolgde hij, het aanroepen van de Nervana NNP de “ultieme high performance oplossing” voor diep leren.

Vorige en aanverwante dekking

AI opleiding heeft een nieuwe chip-architectuur: de Intel

In plaats van de strook naar beneden in één van de bestaande architecturen te maken van een chip geoptimaliseerd voor AI, Intel ging naar buiten en kocht er een.

Intel kondigt het zelf-lerende AI chip Loihi

Intel zei de nieuwe AI-test chip combinatie van training en gevolgtrekking, wat betekent autonome machines kunnen aanpassen aan de lessen uit hun omgeving in real-time in plaats van te wachten tot de updates van de cloud.

Intel heeft een bedrag van meer dan $1 miljard in AI bedrijven

Intel CEO Brian Krzanich schreef een opiniestuk maandag dat touts het bedrijf AI beleggingen.

0