Nul
Achtentwintig jaar geleden, Geoff Tate bijgedragen tot het creëren van een chip genoemd bedrijf Rambus. De technologie is in elke DRAM geheugen deel dat schepen van vandaag. Maar Tate denkt dat hij nu een grotere markt in de kunstmatige intelligentie en machine learning.
“Ik denk dat neurale netwerken gaat om een grotere markt dan wat we deden met Rambus,” zei Tate, chief executive van het opstarten Flex-Logix, in een interview met ZDNet aan de zijlijn van de Linley Group Vallen Processor Conferentie, georganiseerd door de eerbiedwaardige halfgeleider-analyse-firma The Linley Group, in Santa Clara in Silicon Valley.
“Neurale net chips gaan exploderen in zowel volume van chips geproduceerd en complexiteit,” Tate zei. “Als je naar analogie van de dagen van [Intel] x86, we zijn net in het stadium van de 286 en nu”.
Flex, vier jaar geleden opgericht en ondersteund door venture bedrijven Lux Kapitaal en Eclipse Ventures, gaat na de markt bekend als “inferencing aan de rand.” Deductie is het deel van de machine te leren wanneer de neurale net gebruikt wat hij heeft geleerd tijdens de opleiding fase te leveren antwoorden op nieuwe problemen.
Ook: AI Opstarten Cornami onthult de details van de neurale netto-chip
De “rand” in dit geval verwijst naar de apparaten buiten het datacenter, zoals zelf-rijdende auto ‘ s of IoT gadgets. Vandaar, inferencing aan de rand gepaard kunnen gaan met neurale netwerken voor dingen zoals het helpen van de auto van de weg of het helpen van een aangesloten camera identificeren mensen in de menigte.

Flex-Logix s combineert groepen van mutliplier-accumulator circuits in de banken van SRAM, met een speciaal schakelsysteem voor het aansluiten van het allemaal samen te noemen “XFLX.” Het bedrijf beweert dat deze regeling van de onderdelen houden de processor bezig meer van de tijd met de gegevens die het nodig heeft, helpen om veel beter te presteren dan Nvidia ‘s Gpu’ s op de inferentie van machine learning.
Het bedrijf onthuld bij de show zijn “NMAX” technologie. Dit is gebaseerd op wat bekend staat als een “eFPGA,” een soort programmeerbare chip. De NMAX combineert ton van identieke berekenen elementen, de zogenaamde multiplier-accu ‘ s, die het uitvoeren van de matrix vermenigvuldigen, dat zijn de fundamentele taak in neurale netwerken. De multiplier-accu ‘ s make-up een “systolic array,” een oude computer een ontwerp dat een revival beleven zoveel chip-makers gebruiken het voor de AI. (Zie het rapport vorige week op een chip start-up Cornami.)
Deze groepen multiplier-accu ‘ s zijn omgeven door SRAM geheugen circuits, en een high-speed interconnect genaamd “XFLX” verbindt het multiplier-accu ‘ s aan elkaar en aan de SRAM. De SRAM in het bezit van de “gewichten” de numerieke waarden van de vorm van het neurale netwerk.
Tate benadrukt de XFLX interconnect als de sleutel tot de chip van de prestaties. Door de mogelijkheid om efficiënt te verplaatsen van gegevens in en uit de SRAM met de clusters van de multiplier-accu ‘ s, de gehele chip kan efficiënter. De multiplier-accu ‘ s bezig worden gehouden door altijd met de gegevens die ze nodig hebben, en de chip kan beperken of zelfs helemaal voorkomen, het kostbare proces van off-chip aan DRAM. “Het snijden van DRAM betekent het snijden van kosten en kracht”, Tate zei. Een speciale compiler programma wordt ontwikkeld door Flex, die optimaliseert de gegevens luchtstroom rond de chip.
Tate en zijn mede-oprichter Cheng Wang, hoofd engineering, mikte op de Nvidia graphics processing unit of Gpu ‘ s, momenteel de dominante vorm van berekenen. Zij betogen dat de Gpu ‘s, terwijl het beter dan de Cpu’ s, zijn grove inefficiënt voor de verwerking van neurale netwerken.
“De meeste van de tijd een Nvidia MAC [multiplier-accumulator] is niets te doen, dus moeten ze vier keer zo veel hardware” om hetzelfde resultaat te halen, Tate zei.
Ook: Google zegt ‘exponentiële groei’ van de AI is het veranderen van de aard van het berekenen van
Wang beweerd in zijn officiële presentatie op de show die de NMAX chip heeft tien keer de prijs/prestaties van Nvidia ‘ s “Tesla T4″ GPU. De XFLX elkaar te verbinden, en de herconfigureerbare aard van de FPGA-circuits, betekenen de NMAX is inactief minder van de tijd, en heeft daarom een hogere inzetbaarheid.” De meeste AI-chip ‘ ondernemingen, zei Wang, hebben verschillende claims over de “tera-bewerkingen per seconde” of TOPS, ze kunnen uitvoeren, veelbelovende, om meer en meer.
Maar Wang zei dat de meeste klanten zijn meer bezig met de feitelijke doorvoer en latentie kunnen bereiken. Een hogere bezettingsgraad moet produceren meer in de weg van de werkelijke doorvoersnelheid wat de ruwe TOPPEN tellen is.
Op de benchmark “ResNet-50” neurale netwerk voor beeldherkenning, Wang zei de NMAX, om een “rendement” van de multiplier-accu ‘ s van 87 procent, vergeleken met minder dan 25 procent van de Tesla T4 en andere soorten chips.
Flex-Logix heeft van meer efficiëntie in de chips op de benchmark tests waarbij bepaalde machine learning neurale netwerken zoals “ResNet-50.”
“Bij onze klant vergaderingen, ze hebben al een benchmark van dit alles, en ze weten dat de problemen van echte versus beloofde prestaties,” Tate zei. “We spraken met een van de bedrijven die zei dat het probleem niet hoeveel TOPS kun je doen, het was hoeveel kunt u doen met een watt” van kracht. Dat komt omdat de rand-apparaten kan worden beperkt door de levensduur van de batterij, in tegenstelling tot de servers zitten in een data center.
“We hebben nog niets gezien aan onze capaciteit”, Tate zei. “En eigenlijk ResNet-50 is zelfs een beetje misleidend, omdat in de echte wereld, in tegenstelling tot de academische presentaties, de neurale netwerken zijn veel groter dan ResNet-50, en deze netwerken echt de belasting van de hardware.”
NMAX zal worden verkocht aan klanten als wat heet een “IP-core,” een circuit ontwerp dat zij kunnen nemen in hun eigen chips. Onderdelen worden verwacht “tape out”, wat betekent dat ze zal beschikbaar zijn voor klanten, in de tweede helft van volgend jaar.
Vorige en aanverwante dekking:
Wat is AI? Alles wat je moet weten
Een executive gids voor kunstmatige intelligentie, van machine learning en algemene AI-neurale netwerken.
Wat is diep leren? Alles wat je moet weten
De lowdown op diep leren: van hoe het zich verhoudt tot het bredere veld van machine-leren door te zien hoe aan de slag met het.
Wat is machine learning? Alles wat je moet weten
In deze gids wordt uitgelegd wat ‘machine learning’ is, hoe het is in verband met kunstmatige intelligentie, hoe het werkt en waarom het belangrijk is.
Wat is cloud computing? Alles wat u moet weten over
Een introductie van cloud computing recht vanaf de basis tot IaaS en PaaS -, hybride -, public en private cloud.
Verwante artikelen:
Er is geen rol voor de AI of data science: dit is een team inspanning Opstarten Verwanten brengt glimp van hoop voor AI AI-robotica: Het uitzicht vanuit de Chief Data Science Office Salesforce intro ‘ s van Einstein Stem, een AI-voice assistant voor ondernemingen is Het niet de banen AI is het vernietigen van dat stoort me, het is die groeiende Hoe Facebook schalen AI
Verwante Onderwerpen:
Digitale Transformatie
CXO
Het Internet van Dingen
Innovatie
Enterprise Software
0