Nul
De technische wereld is overspoeld in het opstarten van bedrijven met het ontwikkelen van speciale chips voor kunstmatige intelligentie en machine learning. Sommige van de meest intrigerende degenen toonde deze week op de Linley Group Vallen Processor Conferentie, georganiseerd door de eerbiedwaardige halfgeleider-analyse-firma The Linley Group, in Santa Clara, Californië.
ZDNet ging om de toon te krijgen van de lowdown op een aantal van deze stealth-operaties.
Donderdag ochtend werd gekenmerkt door een presentatie door een startup bedrijf genaamd Cornami, gevestigd in Santa Clara.
Co-fonder en CTO, Paul Meesters, beschrijft een nieuwe manier om het rangschikken van de elementen van een chip om beide te doen machine learning “opleiding” — waar het neurale netwerk is ontwikkeld — en “inference,” waar het neurale netwerk presteert op een constante basis om antwoorden te geven.
Cornami is actief in stealth-modus en dit was de eerste keer Masters trok het gordijn open op sommige van de details van hoe het bedrijf chips werken.
Ook: Google kondigt aan de Rand van TPU, Cloud IoT Edge software
Cornami streeft naar het leveren van haar chips op tal van markten, waaronder in “edge computing,” waar auto ‘ s en consumentenelektronica hebben een bijzondere behoefte aan chips die een zeer snelle prestaties en de energie-efficiënte in de manier waarop ze worden uitgevoerd neurale netwerken.
De chip, zei Meesters, gaat terug tot de technologie van de jaren 1970 en 1980, een zogenaamde “systolische” array. Een systolic array heeft een overvloed van computing elementen, zoals een multiplier-accumulator, voor het uitvoeren van de matrix vermenigvuldigen, dat zijn de fundamentele compute unit van neurale netwerken. Draden verbindt deze elementen aan elkaar, en om het geheugen in een raster. Systolische arrays worden zo genoemd vanwege de systolische werking van het hart, zoals de doorbloeding, data wordt “gepompt” door die rekenkundige elementen.
Systolische arrays nooit van de grond gekomen toen ze voor het eerst naar voren, maar ze vormen als het dominante manieren om de structuur van een AI-chip, gebaseerd op de presentaties van deze week. “Heb je het gezien, het is cool, het is van de jaren ’70,’ zei Meesters van de systolische arrays.
“Google is met hen, en Microsoft, en een ontelbaar startups,” merkte hij op van de populariteit van de systolische arrays.
Maar Meesters besproken hoe Cornami heeft een unieke benadering van de systolische arrays. “De vloek van systolic array is dat ze square,” grapte Masters. Hij verwees naar dat symmetrische schikking van de multiplier-accu ‘ s. Becauser van die starre regeling, het verplaatsen van de data in en uit van die berekenen elementen neemt een enorme hoeveelheid van de chip inspanning — meer werk in de werkelijkheid, dan de computer zelf in elk berekenen element.
“Waar komt de energie gaat in de legacy-silicium?” is de grote vraag, aldus Meesters. “Data wordt gedumpt in de DDR [DRAM geheugen], en het moet gaan naar een kern voor de berekening, dus gaat de gegevens van de DDR naar de Level 3-cache, de Level 2 cache, en de Level 1 cache en vervolgens in het register, en vervolgens in de computer. Dan heb ik als ik het opraken van de kernen, ik heb om het tegenovergestelde te doen, ik ga weer naar buiten en dump al die tijdelijke gegevens weer in het register, de L1-cache L2, L3, en over en over.”
Ook: Google preps TPU 3.0 voor AI, machine learning, model training
Gewoon om een “touch” van de L1-cache, legde Masters, neemt vier keer de energie van de werkelijke berekening. “En de hemel helpen je als je het aanraakt DRAM,” zei hij, rijdend op de kracht die nodig is zelfs meer te gaan buiten de chip.

Cornami betoogt de chips voor de ‘machine learning’ zal veel en veel meer krachtig en efficient door het organiseren van het berekenen van de elementen in een niet-vierkante matrices. Hier een voorbeeld van een matrix gerangschikt in een niet-vierkante vorm voor het uitvoeren van een volledige laag van de SegNet neurale netwerk.
Cornami Inc.
“De meest energie-inefficiënt ding in oudere machines is het verplaatsen van data,” zegt Meesters. De oplossing is om duizenden kernen. Door het houden van duizenden kernen bezet, men kan houden van terug te gaan naar het geheugen subsysteem en in plaats daarvan gewoon de route in-en uitgangen van het berekenen van het ene element naar het volgende. “Als je genoeg kernen, met 8.000, of 16.000, of 32000 kernen, houden we de totaliteit van het neurale netwerk op sterven,” zei hij.
En om te voorkomen dat de kosten van het gaan in en uit het geheugen, de Cornami chips regelen hun circuits zodanig dat het berekenen van elementen kan worden overgestapt naar een verscheidenheid van geometrische regelingen voor het effectief organiseren van de computing activiteit op de chip op een manier die verandert met de eisen van het neurale netwerk op het moment.
“Cornami bouwde een architectuur waar de systolische arrays kunnen worden gebouwd van elk formaat, elke vorm, op de vraag.” Als de schuif omhoog bovenstaande blijkt dat het systolic array kan dynamisch worden aangepast aan vreemde nieuwe geometrie die niet pleinen. Die vreemde vormen van arrays maken het efficiënt te verplaatsen van ingangen en uitgangen tussen de compute-elementen. En als gevolg daarvan, de Cornami chip kan het minimaliseren van het geheugen en cache verwijzingen, en daardoor “drastisch verbeteren van kracht, latency en prestaties.”
Ook: Intel-backed opstarten Paperspace opnieuw uitvindt dev tools voor een AI -, cloud-tijdperk
Masters pochte dat met een dergelijke flexibel, een enkele Cornami chip kan een hele neurale netwerk en in staat zal zijn om de plaats van de diverse combinaties van Cpu ‘s, Gpu’ s, fpga ‘ s en ASICs meestal gebruikt voor het uitvoeren van neurale netwerken. Het is een “data-center op een chip,” zei hij, met grote gevolgen voor het zetten van AI in de “edge computing, zoals auto’ s.
Masters bleek uit een aantal statistieken van de prestaties: het uitvoeren van de “SegNet” neurale netwerk voor het imago van de erkenning, de Cornami chip is in staat om 877 frames per seconde in het neurale netwerk met behulp van slechts 30 watt, in vergelijking met een Nvidia “Titan V” GPU, die processen van 8,6 frames per seconde bij 250 watt.
Cornami ontvangen van de B-Serie venture financiering van $3 miljoen terug in September 2016 Impact van Venture Capital. Het bedrijf heeft ontvangen van verdere financiering, maar weigerde te onthullen hoeveel.
Vorige en aanverwante dekking:
Begin AI adopters rapport grote rendementen
Nieuwe studie toont aan kunstmatige intelligentie technologie vruchten af, maar organisaties worden geconfronteerd met uitdagingen.
Oracle introduceert nieuwe enterprise digital assistant
Gaat verder dan de typische chatbots gebouwd voor een enkel doel, het Orakel Digitaal-Assistent kunnen worden opgeleid om ondersteuning domein vaardigheden van meerdere toepassingen
AI het leveren van rendement voor enterprise early adopters, maar niet industrieën gelijk gemaakt
Deloitte ‘ s jaarlijkse AI onderzoek onthult een stukje realisme, cybersecurity zorgen en een 17 procent mediaan rendement op de investering.
Machine learning nu de top vaardigheid gezocht door ontwikkelaars
SlashData de laatste enquête van 20.000 ontwikkelaars identificeert machine learning en data science zijn de vaardigheden om te weten voor 2019.
Wat is diep leren? Alles wat je moet weten
De lowdown op diep leren: van hoe het zich verhoudt tot het bredere veld van machine-leren door te zien hoe aan de slag met het.
Wat is digitale transformatie? Alles wat je moet weten
Digital transformation: wat het is, waarom het belangrijk is, en wat de grote trends zijn.
AI en Internet van de Dingen zal rijden digitale transformatie tot 2020
Onderzoek onthult IoT, AI en synchrone grootboek tech (blockchain) prioriteiten.
Verwante artikelen:
Er is geen rol voor de AI of data science: dit is een team effortStartup Verwanten brengt glimp van hoop voor AI in roboticsAI: Het uitzicht vanuit de Chief Data Science OfficeSalesforce intro ‘ s van Einstein Stem, een AI-voice assistant voor enterprisesIt is niet de banen AI is het vernietigen van dat stoort me, het is die growingHow Facebook schalen AIGoogle Duplex mij zorgen baart, CNETHoe de Google Startpagina is beter dan de Amazon Echo CNETDigitale transformatie: Een gids voor CXOs (Tech Pro Onderzoek)Wat deze bedrijven zal zich richten op voor de digitale transformatie in 2018Digital transformatie: Drie manieren om het goed te krijgen in uw bedrijf
Verwante Onderwerpen:
zdnet_topic.verwante.rand-computing
Digitale Transformatie
CXO
Het Internet van Dingen
Innovatie
Enterprise Software
0