Amazon, Huawei inspanningen show te verplaatsen naar AI-centric chips blijft

0
154

De opmars van de gespecialiseerde chips voor kunstmatige intelligentie gaat onverminderd voort, en de rapporten van enkele coryfeeën van de industrie van de halfgeleiders punt om een verbreding van de beweging van de machine te leren delen.

De goed aangeschreven chip-industrie nieuwsbrief Microprocessor Verslag van deze week meldt dat cloud computing-exploitanten, zoals Amazon en enkele elektronica-giganten als Huawei tonen indrukwekkende resultaten tegen de Cpu ‘ s en de graphics processing unit of GPU, onderdelen die de neiging hebben om te domineren AI in de cloud. (Microprocessor Rapport van de artikelen zijn alleen verkrijgbaar via inschrijving op de nieuwsbrief.)

En een denk-delige deze maand in de Communicatie van de ACM, van twee legendes van de chip ontwerp, John L. Hennessy en David A. Patterson legt uit dat de circuits voor machine learning vertegenwoordigen iets van een revolutie in de chip ontwerp het algemeen. Hennessy en Patterson vorig jaar ontving de prestigieuze A. M. Turing award van de ACM voor hun jarenlange werk op chip-architectuur design.

Ook: Google zegt ‘exponentiële groei’ van de AI is het veranderen van de aard van het berekenen van

In de Microprocessor Rapport redactie, de nieuwsbrief van de principal analist Linley Gwennap, beschrijft de opkomst van custom application-specific integrated circuits voor cloud met de zin: “als het regent, het giet.” Onder de stormloop van de chips zijn Amazon ‘ s “Graviton” chip, die is nu beschikbaar op Amazon AWS cloud service. Een andere is de “Kunpeng 920” van de Chinese telecom-en networking gigant Huawei. Huawei is van plan om het gebruik van de chips in zowel de lijn van de server-computers en als een offer in zijn eigen cloud computing dienst.

patterson-google-tpu-block-diagram-jan-2019.png

Een blokschema van Google ‘ s “TPU” processor voor machine learning.

Van Google.

Zowel Amazon en Huawei van plan om follow-up met meer delen: een “deep-learning accelerator” van Amazon genaamd “Inferentia” en een deel voor neurale network inference, het deel van AI waar de chip beantwoordt vragen over het vliegen, de zogenaamde “Opstijgen 310.” Een andere, de “Opstijgen 910,” is een “enorme datacenter chip,” als Gwennap beschrijft.

In het geval van Amazon en Huawei, de problemen is het slot op de inferentie door Intel Xeon-processor, en het slot op cloud-gebaseerde training van Nvidia ‘s Gpu’ s.

Ook: Intel AI chief kansen ziet voor ‘massale’ marktaandeel

“Cloud-serviceproviders zijn betrokken over Intel’ s in de buurt-100% aandeel van de server processors en Nvidia ‘ s dominantie in AI, versnellers,” schrijft Gwennap. “ASICs bieden een bescherming tegen prijsstijgingen of een product struikelen vanuit de leverancier.”

Terwijl de ASICs niet gemakkelijk voldoen aan de Intel Xeon-prestaties, “De sterke prestaties van de Ascend 910 toont Nvidia is meer kwetsbaar zijn,” schrijft hij.

Het essay van de Hennessy en Patterson duurt een beetje langer. Het probleem voor de chip-industrie, schrijven ze, is de verdeling van de Wet van Moore, de beroemde wet van de transistor schalen, evenals de verdeling van de Dennard Schalen, die zegt dat chips krijgen over het algemeen meer energie-efficiënt is. Op hetzelfde moment, Amdahl de Wet, een vuistregel die zegt dat het knelpunt in de prestaties van de processor is het aantal opeenvolgende, in plaats van parallel, bewerkingen die moet worden berekend, is in volle werking. Dat alles betekent chips zijn iets van een crisis, maar biedt ook kansen.

Ook: Nvidia AI-onderzoek wijst op een evolutie van de chip business

Kortom, chip design heeft om afstand te nemen van de algemene-doel delen, specialisatie, betogen ze. De dood van Moore ‘ s Wet en Dennard Schalen “maken het zeer onwaarschijnlijk is, in onze opvatting, dat de processor architecten en ontwerpers kunnen ondersteunen significante tarieven van de prestaties in het algemeen-doel-processors.”

In plaats daarvan zien ze een vervolg verplaatsen naar ‘ domein-specifieke architecturen,” van die AI-chips zijn een prominent voorbeeld. De DSA-chips maken gebruik van veel van de trucs die niet werken voor general-purpose processoren, zoals een compiler aanpak voor de code genaamd “zeer-lange instructie-woord,” of VLIW.

“VLIW-processors zijn een slechte wedstrijd voor algemene doeleinden code15 maar voor beperkte domeinen kan veel efficiënter, omdat de controle mechanismen zijn eenvoudiger”, schrijven ze.

Niet alleen zal dsa ‘ s dienen AI goed, maar de auteurs voorspellen ze beter zijn dan algemeen-doel-processors op continuïteit van de code, het vermijden van de recente chip uitbuitingen zoals Spectre en Kernsmelting.

Moet lezen

‘AI is heel, heel stom,’ zegt Google AI leider (CNET)Baidu maakt Kunlun silicium voor AIUnified Google AI afdeling een duidelijk signaal van AI ‘ s toekomst (TechRepublic)

Vergeet niet dat Patterson was een belangrijke speler in het ontwerpen van Google ‘ s Tensor Processing Unit, of TPU, een chip, een uitstekend voorbeeld van een AI-centric DSA. De auteurs dekking van de details van de TPU in het artikel.

Afgezien van de TPU, en Nvidia Gpu ‘s, en Intel’ s eigen field-programmable gate arrays, en andere giften van de tech-giganten zijn er “tientallen” van het opstarten van bedrijven die “communicerende honderden tot duizenden van dergelijke chips te vormen neuraal-netwerk van supercomputers,” Hennessy en Patterson observeren.

Ze zien meer en meer designs komen van startups gezien het feit dat het relatief goedkoop is om te ontwerpen en fabriceren van de meer specifieke dsa ‘ s, in vergelijking met een algemene deel. Ze maken een pitch voor het “RISC-V” – norm voor chip instructies. RISC-V staat veel chip bedrijven tot wijziging van een standaard set van instructies is om te tunen delen tot een bepaald domein. Hennessy en Patterson schrijven dat het nieuwe tijdperk van de chip ontwerp is verwant aan agile development in de software, met veel herhalingen die nieuwe chips de deur uit, snel en vervolgens te verbeteren.

Het duo ziet een rooskleurige toekomst voor innovatie. “Deze lawine van [diepe neurale netwerk] architecturen zorgt voor interessante tijden in computer architectuur.

“Het is moeilijk te voorspellen in 2019 die (of zelfs als enige) van deze vele richtingen zal winnen, maar de markt zal zeker voldoening van de concurrentie net zoals hij zich de architectonische debatten van het verleden.”

Vorige en aanverwante dekking:

Wat is AI? Alles wat je moet weten

Een executive gids voor kunstmatige intelligentie, van machine learning en algemene AI-neurale netwerken.

Wat is diep leren? Alles wat je moet weten

De lowdown op diep leren: van hoe het zich verhoudt tot het bredere veld van machine-leren door te zien hoe aan de slag met het.

Wat is machine learning? Alles wat je moet weten

In deze gids wordt uitgelegd wat ‘machine learning’ is, hoe het is in verband met kunstmatige intelligentie, hoe het werkt en waarom het belangrijk is.

Wat is cloud computing? Alles wat u moet weten over

Een introductie van cloud computing recht vanaf de basis tot IaaS en PaaS -, hybride -, public en private cloud.

Verwante Onderwerpen:

Ontwikkelaar

Digitale Transformatie

CXO

Het Internet van Dingen

Innovatie

Enterprise Software