Mars specialiserade marker för artificiell intelligens fortsätter med oförminskad styrka, och rapporter från vissa armaturer i halvledarindustrin punkt till en breddning av förflyttning av maskinen lärande delar.
Den väl ansedda chip-branschen nyhetsbrev Mikroprocessor Rapport denna vecka rapporter om att cloud computing aktörer som Amazon och en del elektronik jättar som Huawei visar imponerande resultat mot Processorer och graphics processing unit, eller GPU, delar som tenderar att dominera AI i molnet. (Mikroprocessor Rapporten artiklarna är endast tillgängliga via abonnemang på nyhetsbrev.)
Och en tänka-bit) denna månad i den Communications of the ACM, från två legender av chip design, John L. Hennessy och David A. Patterson, förklarar att kretsarna för maskininlärning representerar något av en revolution i chip design i stort sett. Hennessy och Patterson förra året fick den prestigefyllda A. M. Turing award från ACM för decennier av arbete på chip arkitektur och design.
Också: Google säger ” exponentiell tillväxt av AI är föränderliga natur beräkna
I Mikroprocessorn Rapport redaktionen, nyhetsbrev är chefsanalytiker, Linley Gwennap, beskriver uppkomsten av egna applikationsspecifika integrerade kretsar för molnet, med frasen “när det regnar, det häller.” Bland rusa av marker är Amazons “Gravitonen” chip, som nu finns i Amazon AWS molnet tjänst. En annan är “Kunpeng 920” från china telecom och nätverk jätte Huawei. Huawei har för avsikt att använda marker i både sin linje av server-datorer och som ett offer i sin egen cloud computing tjänst.

Ett blockschema för Googles “TPU” processor för maskininlärning.
Google.
Både Amazon och Huawei planerar att följa upp med fler delar: en “deep-learning accelerator” från Amazon som kallas “Inferentia” och en del för neurala nätverk slutledning, den del av AI där chipet svarar på frågor om att flyga, som kallas “Ascend 310.” En annan, “Stiga upp 910,” är ett “massivt datacenter chip,” som Gwennap beskriver det.
Både i fallet med Amazon och Huawei, de frågor som är låset på slutsatser av Intels Xeon-processor, och låset på moln-baserad utbildning av Nvidias Grafikprocessorer.
Även Intels AI chief ser möjligheter för massiv andel av kapital
“Cloud-tjänsteleverantörer i fråga om Intels nära 100% andel av server-processorer och Nvidia: s dominans i AI acceleratorer,” skriver Gwennap. “ASICs erbjuder ett skydd mot prishöjningar eller en produkt snubblar från antingen säljaren.”
Medan ASICs inte lätt att träffa Intels Xeon-prestanda, “Den starka utvecklingen av den Ascend 910 visar Nvidia är mer sårbara”, skriver han.
Den essä av Hennessy och Patterson tar ett lite längre perspektiv. Problemet för chip-industrin, skriver de, är fördelningen av Moores Lag, den berömda lagen om transistor skalning, liksom fördelningen av Dennard Skalning, som säger att chips får generellt mer energieffektiva. Vid samma tid, Amdahl Lag, en tumregel som säger att flaskhalsen i processorns prestanda är antalet sekventiella, snarare än parallellt, en verksamhet som måste beräknas, är i full effekt. Allt som innebär att chips är något av en kris, men en som också presenterar möjlighet.
Också: Nvidia AI-forskning pekar på en utveckling av chip företag
I grund och botten, chip design har att röra sig bort från allmänt ändamål delar, specialisering, menar de. Död av Moores Lag och Dennard Skalning “gör det högst osannolikt, enligt vår uppfattning, att processorn arkitekter och designers kan upprätthålla betydande priser på förbättringar i de allmänna ändamål processorer.”
Istället, de ser en fortsatt övergång till “domän-specifika arkitekturer,” som AI marker är ett framträdande exempel. DSA marker kan använda sig av massor av knep som inte fungerar för allmänt ändamål processorer, till exempel en kompilator strategi för kod som heter “mycket-lång instruktion-word” eller VLIW.
“VLIW processorer är en dålig match för allmänt ändamål code15 men för begränsade domäner kan vara mycket mer effektiva, eftersom de kontrollmekanismer som är enklare,” skriver de.
Inte bara kommer Vsm tjäna AI bra, men författarna förutspår att de kan vara bättre än för allmänt ändamål processorer på säkra kod, för att undvika den senaste chip utnyttjar sådana som Spectre och Härdsmälta.
Måste läsa
‘AI är mycket, mycket dumt”, säger Googles AI ledare (CNET)Baidu skapar Kunlun kisel för AIUnified Google AI division en tydlig signal om att AI: s framtid (TechRepublic)
Kom ihåg att Patterson var en central aktör i utformningen av Googles Tensor Processing Unit, eller TPU, chip, ett utmärkt exempel på en AI-centrerad DSA. Författarna att omfatta detaljer av TPU i artikeln.
Bortsett från TPU, och Nvidia Gpu, och Intels egna field-programmable gate arrays, och andra erbjudanden från tech jättarna, det finns “massor” av startup-företag som “anslutande hundratals till tusentals sådana marker för att bilda neurala nätverk superdatorer,” Hennessy och Patterson observera.
De ser mer och mer mönster kommer från startups med tanke på att det är relativt billigt att designa och tillverka mer specifika Vsm, jämfört med en generell del. De gör en pitch för “RISC-V” standard för chip instruktioner. RISC-V gör det möjligt för många chip företag för att ändra en standard uppsättning instruktioner för att ställa delar till en viss domän. Hennessy och Patterson skriver att den nya eran av chip som är besläktad med agile utveckling inom mjukvara, med massor av upprepningar för att få nya marker ut genom dörren snabbt och sedan förbättra det.
Duon ser en ljus framtid för innovation. “Denna lavin av [djupa neurala nätverk] arkitekturer gör för en intressant tid i datorarkitektur.
“Det är svårt att förutsäga 2019 som (eller, om ens någon) av dessa många håll kommer att vinna, men marknaden kommer säkert att reglera konkurrensen precis som den fast den arkitektoniska debatter av det förflutna.”
Tidigare och relaterade täckning:
Vad är AI? Allt du behöver veta
En verkställande guide till artificiell intelligens, från maskininlärning och allmänna AI att neurala nätverk.
Vad är djupt lärande? Allt du behöver veta
Lowdown på djupt lärande: från hur det förhåller sig till de bredare fält av maskinen lärande genom hur man kommer igång med det.
Vad är lärande? Allt du behöver veta
Denna guide förklarar vad lärande är, hur den är relaterad till artificiell intelligens, hur det fungerar och varför det är viktigt.
Vad är cloud computing? Allt du behöver veta om
En introduktion till cloud computing rätt från grunderna upp till IaaS och PaaS, hybrid, offentliga och privata moln.
Relaterade Ämnen:
Utvecklare
Digital Omvandling
CXO
Sakernas Internet
Innovation
Affärssystem