AI Opstarten Giervalk spins overvloed van chips voor machine learning

0
129

Nul

Dertig jaar geleden, een PhD-student met de naam Lin Yang van de Universiteit van Californië in Berkeley had een idee voor een speciaal soort chip die zou versnellen berekeningen voor kunstmatige intelligentie.

Zie het als een drie-tien jaar voorsprong.

Sommige van deze inzichten zijn nu werkelijkheid, als Yang opstarten bedrijf, Giervalk-Technologie, waarvan hij chief scientist, beweegt zich voort met een ambitieuze reeks van verschillende chip aanbod voor AI, in de hoop het beste in een steeds drukkere gebied van de chip kanshebbers.

Giervalk, gevestigd in Milpitas, aan de rand van Silicon Valley, en opgericht in begin 2017, is het realiseren van Yang ‘ s inzicht van dertig jaar geleden: een matrix van identieke circuits uitvoeren matrix vermenigvuldigen in parallel, waardoor het versnellen van de fundamentele activiteiten van neurale netwerken.

Ook: AI opstarten Flex-Logix touts hogere prestaties dan Nvidia

“Wij zijn de enigen die zo ver met matrix vermenigvuldigen, als de fundamentele berekenen element,” zegt Giervalk-president Frank Lin, die zaten te praten met ZDNet.

Lin is goed op de hoogte drommen van startups zijn trots van nieuwe halfgeleiders ontwerpen voor AI, zoals die onlangs geprofileerd door ZDNet, met inbegrip van Cornami, Flex Logix en Efinix.

“De andere chip makers, sommige van hen zijn na te denken over nieuwe architecturen voor matrix of tensor”, zegt Lin, maar met Giervalk die eerste silicium aan haar klanten in januari, “voor de echte chip, zijn we, denk ik, de enige echte siliconen op tafel.”

Een aantal belangrijke klanten zijn inzet Giervalk zal de zaken leveren die ze nodig hebben, met inbegrip van Samsung Electronics, LG Electronics, en Fujitsu.

“We zijn begonnen met slechts zeven mensen”, zegt Marc Naddell, hoofd van de marketing voor Giervalk. “Stel je voor slechts een kleine ploeg van mensen gericht op taping uit een chip, binnen acht maanden van start.” Giervalk is de enige partner voor Samsung voor een AI-chip, zowel Naddell en Lin benadrukken.

“We hadden echt een succesvolle eerste chip, dat is de reden waarom een klein bedrijf met een korte geschiedenis won de grote logo ‘s” zoals Samsung, constateert hij.

Ook: AI Opstarten Cornami onthult de details van de neurale netto-chip

De sleutel voor het bedrijf van de onderdelen is dat het beschikt over van de energie-efficiëntie dat het beste de prestaties van de conventionele Cpu ‘s van Intel en Gpu’ s van Nvidia. “We zijn David gaan tegen Goliath’, zegt Lin.

De “Lightspeeur,” als het bedrijf de onderdelen worden gebrandmerkt, begon met de “2801” chip, onthuld in januari van dit jaar op de Consumer Electronics Show, een deel wordt gebruikt voor de “inference,” het deel van de machine te leren wanneer de neurale net gebruikt wat hij heeft geleerd tijdens de opleiding fase te leveren antwoorden op nieuwe problemen. Dat deel was gericht op de “rand” – apparaten, zoals smartphones, smart luidsprekers, of laptops.

gyrfalcon-apim-unit-schematic.png

Giervalk betoogt dat de door de omliggende elke identiek computing unit met geheugen, een benadering van het noemt “AI Verwerking in het Geheugen,” of APiM, gebruik van externe geheugen kunnen sterk worden verminderd, waardoor het verlagen van de macht budget van AI chips drastisch.

Het 2801 biedt de mogelijkheid om te berekenen 9.3 biljoen bewerkingen per seconde in één watt energie, waar elke operatie is een vermenigvuldig-accumuleren stap. Dergelijke “TOPS” metingen zijn een uitdrukking van de energie-efficiëntie in AI chips deze dagen.

Het “90% meer energie-efficiënt dan Intel ‘s Movidius deel”, zegt Lin, verwijzend naar de gevolgtrekking chip die Intel verworven met de overname van het bedrijf met dezelfde naam.

Het 2801 gevolgd werd vorige maand door de “2803”, die werd ontworpen voor het verwerken van meer zware gevolgtrekking wordt geladen in de cloud-servers. Het duurt prestaties en energie-uitkeringen verder, het aanbieden van 24-TOPS per watt energie. Giervalk stelt de 2803 kan gebruikt worden voor niet alleen afleiding, maar een opleiding en met behulp van een techniek voor het optimaliseren van het netwerk dat bekend staat als “Markov Chain Monte Carlo,” in plaats van de meer gebruikelijke stochastische gradient descent.

Ook: Chip opstarten Efinix hoopt bootstrap AI inspanningen in de IoT

Zowel 2801 en 2803 kunnen worden gecombineerd op circuit boards om te werken in parallel als plug-in boards via PCIe.

Beide delen hebben ingebouwde geheugen, in de orde van 9 megabytes voor het 2801. Het geheugen, geclusterd met elke computing element, kan de chip doet bijna al het werk van gevolgtrekking, zonder in te gaan off-chip aan DRAM. Het bedrijf noemt dit “AI verwerking in het geheugen,” of “APiM.”

“Ik kan pre-load op de chip slechts één keer de netwerk-model en de gewichten en de activering eenheden”, zegt Lin, “en dan niet naar buiten te gaan; dat scheelt een hoop energie, en dat is de reden waarom de prestaties zo hoog is.”

En deze maand het bedrijf gaf een beetje een piek in het volgende deel, één gericht op het “Internet van Dingen” toepassingen, die niet formeel uitgeroepen tot de volgende maand. Het nieuwste deel, de 2802, brengt een ander interessant aspect van de tabel: niet-vluchtig geheugen.

De 2802 vervangt de statische RAM (SRAM) gebruikt in het 2801 en 2803 delen met de “magnetische” RAM, of MRAM. Vergelijkbaar met NAND-flash, MRAM niet los van de data als de stroom uitvalt. Dat betekent dat een neuraal netwerk kan worden geladen door een klant, misschien zelfs in de fabriek voordat het onderdeel schepen.

Giervalk ‘s aanpak om het fabriceren van MRAM op dezelfde sterven als het multiplier-accu’ s, is onder vijftig octrooiaanvragen het bedrijf heeft in het proces. Een snelle zoektocht van de us Patent Office applicatie van de database, alsmede de toegekende octrooien, biedt een mooie leeslijst op de details van de Giervalk-technologie. (Berkeley werd bekroond met een octrooi in 1992 op Yang de originele chip ontwerp, met zijn supervisor, Leon Chua. Chua ‘s uitgebreide werkzaamheden in het gebied, overigens, kan worden onderzocht in een aantal gebieden, met inbegrip van Chua’ s 1998 boek “Cnn: Een Paradigma voor de Complexiteit.”)

Ook: Intel AI chief kansen ziet voor ‘massale’ marktaandeel

Natuurlijk, het wrijven is software. In tegenstelling tot de CPU en GPU, er is geen direct beschikbaar programmering stack voor Giervalk ‘ s application-specific integrated circuit (ASIC).

gyrfalcon-chip-comparison.png

Een vergelijking door de Giervalk van de Lightspeeur chip benadering van AI-verwerking aan die van Intel en Nvidia.

Om die reden, het bedrijf heeft zojuist een developer SDK voor het bouwen van applicaties voor het delen. De dev kit kan worden getest op twee hardware accessoires, de “PLAI Plug” is een USB-dongle, en de “PLAI WiFi,” een stand-alone apparaat dat werkt als een draadloze versnelling gadget voor mobiele apparaten.

Door het volgen van het pad Yang verharde at Berkeley, Giervalk heeft genomen, een stap die kan lijken: het is het baseren van de circuits op convolutional neurale netwerken, of CNNs. Yang ‘ s originele scriptie richtte zich op de convolutie werking, hoewel Yang op het tijdstip, bedoeld om dergelijke modellen als “cellulaire neurale netwerken”, een term Giervalk nog steeds gebruikt in de octrooiaanvragen worden ingediend.

Hoewel convolution neurale netwerken hebben, natuurlijk, sommige van de meest belangrijke neurale netwerk modellen in de afgelopen paar jaar, deze keuze toch maakt de chips minder snel van toepassing zijn op andere soorten netwerken, zoals de “lange, korte-termijn geheugen” netwerken.

Lin is niet al te bezorgd, maar over de theoretische beperkingen.

“De CNN is de basis voor alle andere AIs”, zegt Lin. “We hebben studies gedaan, en wij vonden dat het grootste marktaandeel is nog steeds bewoond door ResNet evenals MobileNet,” vormen van CNNs, merkt hij op. Andere startups proberen om bruikbaar te zijn voor alle soorten netwerken, merkt Lin, “een poging om alle bestaande of de komende neurale netwerken, maar ik heb niet gezien een succes is alles wat zo goed en tegelijkertijd efficiënt te zijn.”

Ook: Google zegt ‘exponentiële groei’ van de AI is het veranderen van de aard van het berekenen van

Als er nieuwe netwerken ontstaan en claim substantieel marktaandeel, “dan zullen we uit een andere chip voor”, zegt hij.

Een interessante gedachte is wat er gebeurt als Giervalk beweegt over de productie-curve en maakt de circuits nog efficiënter te maken. De eerste onderdelen zijn gemaakt met Taiwan Semiconductor Manufacturing 28-nanometer proces, een oudere knooppunt in vergelijking met Intel en Nvidia ‘ s cutting edge delen.

“We zijn met 28-nanometer om te verslaan wat anderen zoals Nvidia doen op 7 – of 12-nanometer”, zegt Lin. “We zijn als rebellen vechten tanks, maar we winnen!”

Voegt Naddell, “wanneer doen we verplaatsen om de 12 – of 7-nanometer, wat zijn die andere bedrijven doet aan het doen?”

Een andere route voor de Giervalk is om een licentie voor de chip-designs tot andere AI-chip makers. Lin is niet verplicht om dat te doen, maar hij ziet veel potentieel. “Zelfs een andere opstarten, zoals Graphcore, ze doen dingen erg op ons lijken, maar als ze willen om te gaan met grote, zij het hebben om met ons te praten.”

Net als in het verleden interviews met de media, Giervalk weigerde te zeggen hoeveel geld het bedrijf heeft verhoogd. Financiering is een belangrijke vraag voor de chip startups, omdat het kan honderden miljoenen dollars, gemiddeld, voor een bedrijf om de afstand van het ontwerp, eerst “tape out” van de circuits, om het ontwikkelen en ondersteunen van een klantenbestand. Graphcore, bij de laatste telling, had meer dan $100 miljoen in de financiering.

Giervalk zegt dat ze hebben gekregen “drie rondes van de financiering van institutionele en professionele investeerders in de VS, Japan, Korea en China,” toevoegend dat “bij het huidige personeel en de kosten tarief, het bedrijf heeft de middelen om te werken gedurende ten minste drie jaar.”

Vorige en aanverwante dekking:

Wat is AI? Alles wat je moet weten

Een executive gids voor kunstmatige intelligentie, van machine learning en algemene AI-neurale netwerken.

Wat is diep leren? Alles wat je moet weten

De lowdown op diep leren: van hoe het zich verhoudt tot het bredere veld van machine-leren door te zien hoe aan de slag met het.

Wat is machine learning? Alles wat je moet weten

In deze gids wordt uitgelegd wat ‘machine learning’ is, hoe het is in verband met kunstmatige intelligentie, hoe het werkt en waarom het belangrijk is.

Wat is cloud computing? Alles wat u moet weten over

Een introductie van cloud computing recht vanaf de basis tot IaaS en PaaS -, hybride -, public en private cloud.

Verwante artikelen:

36 van de beste films over AI, rankedThis is wat AI eruit ziet (zoals geschetst door AI)AI robots zijn komst, maar de VN wil dat ze bannedDigital transformatie in 2019: AI, robotica, en IoT te spelen acteurs rollen

Verwante Onderwerpen:

Ontwikkelaar

Digitale Transformatie

CXO

Het Internet van Dingen

Innovatie

Enterprise Software

0