Marts specialiseret chips for kunstig intelligens fortsætter med uformindsket styrke, og rapporter fra nogle berømtheder i halvleder industrien peger på en udvidelse af den bevægelse af machine learning dele.
Den velansete chip-industri nyhedsbrev Mikroprocessor Rapport i denne uge rapporter om, at cloud computing aktører som Amazon og nogle elektronik giganter som Huawei viser imponerende resultater mod Cpu ‘ er og grafikkort enheder, eller GPU, dele, der har en tendens til at dominere AI i skyen. (Mikroprocessor Rapport, artikel, er kun tilgængelige via abonnement på nyhedsbrevet.)
Og tænke-stykke i denne måned i Kommunikation af ACM, fra to legender af chip-design, John L. Hennessy og David A. Patterson, forklarer, at kredsløb for machine learning repræsenterer noget af en revolution i chip-design generelt. Hennessy og Patterson sidste år modtog den prestigefyldte A. M. Turing award fra ACM for deres årtiers arbejde på chip-arkitektur-design.
Også: Google siger, ‘eksponentielle vækst af AI er ved at ændre karakter beregne
I Mikroprocessoren Rapport redaktionelle nyhedsbrev ‘ s ledende analytiker, Linley Gwennap, beskriver anledning af brugerdefineret program-specifikke integrerede kredsløb til cloud med sætningen: “når det regner det hælder.” Blandt suset af chips er Amazon ‘ s “Graviton” chip, som nu er tilgængelige i Amazons AWS cloud-tjeneste. En anden er “Kunpeng 920” fra Kinesiske telecom og networking gigant Huawei. Huawei har til hensigt at bruge chips i både sin linje af server-computere, og som et offer i sin egen cloud computing service.

Et blokdiagram af Google ‘ s “TPU” processor for machine learning.
Google.
Både Amazon og Huawei har til hensigt at følge op med flere dele: en “deep-læring accelerator” fra Amazon kaldet “Inferentia” og en del for neurale netværk slutning, den del af AI, hvor den chip du svar på spørgsmål om fly, kaldet “Ascend 310.” En anden, “Ascend 910,” er en “massiv datacenter chip,” som Gwennap beskriver det.
I tilfælde af både Amazon og Huawei, de spørgsmål, der er lås på følgeslutning af Intels Xeon-processor, og den lås på cloud-baseret uddannelse af Nvidia ‘s Gpu’ er.
Også: Intel ‘ s AI-chef ser mulighed for en ‘massiv’ andel gevinster
“Cloud-udbydere er bekymret for, om Intel’ s tæt på 100% andel af server processorer og Nvidia ‘ s dominans i AI acceleratorer,” skriver Gwennap. “ASICs byde på en sikring mod stigninger i prisen eller et produkt, der snubler fra enten sælger.”
Mens ASICs ikke nemt at imødekomme Intels Xeon-performance, “De stærke resultater af Ascend 910 viser Nvidia er mere sårbare,” skriver han.
Essay af Hennessy og Patterson tager lidt af en længere udsigt. Problemet for chip-industrien, de skriver, er fordelingen af Moore ‘ s Lov, den berømte lov af transistor skalering, samt fordelingen af Dennard Skalering, som siger, at chips får generelt mere energi-effektive. På samme tid, Amdahl ‘ s Lov, en tommelfingerregel, der siger, at den flaskehals i processor-ydeevne er antallet af sekventiel, snarere end parallel, operationer, der skal beregnes, er i fuld effekt. Alle, der betyder, at chips er noget af en krise, men en, der præsenterer også en mulighed.
Også: Nvidia AI forskning peger på en udvikling af chip forretning
Dybest set, chip-design er nødt til at flytte væk fra generelle formål dele, til specialisering, hævder de. Død af Moore ‘ s Lov og Dennard Skalering “gør det meget usandsynligt, efter vores opfattelse, at processor arkitekter og designere kan opretholde betydelige priser for forbedringer af ydeevnen i generelle formål processorer.”
I stedet, de ser en fortsat flyt til “domæne-specifikke arkitekturer,” som AI chips er et fremtrædende eksempel. DSA-chips kan gøre brug af masser af tricks, der ikke virker, til generelle formål-processorer, som en compiler tilgang til kode kaldet “meget-lang instruktion-ord,” eller VLIW.
“VLIW-processorer er en dårlig kamp for generelle formål code15 men i begrænsede områder kan være meget mere effektive, da de kontrolmekanismer, der er enklere,” skriver de.
Ikke kun vil Dsa tjene AI godt, men forfatterne forudsige de kan være bedre end til generelle formål processorer ved sikring af kode, så man undgår de seneste chip udnytter som Genfærd og Nedsmeltning.
Skal læse
“AI er meget, meget dum, “siger Google’ s AI-leder (CNET)Baidu skaber Kunlun silicium til AIUnified Google AI division et klart signal om, at AI ‘ s fremtid (TechRepublic)
Husk, at Patterson var en central aktør i udformningen af Google ‘ s Tensor Processing Unit, eller TPU, chip, et glimrende eksempel på en AI-centreret DSA. Forfatterne dække detaljerne af TPU i artiklen.
Bortset fra TPU, og Nvidia Gpu ‘er, og Intel’ s egen field-programmable gate arrays, og andre tilbud fra tech-giganter, der er “snesevis” af startup-virksomheder, der er “sammenhængende værelser findes hundreder til tusinder af chips, til at danne neurale netværk supercomputere,” Hennessy og Patterson observere.
De ser flere og flere designs, der kommer fra nystartede i betragtning af, at det er relativt billigt at designe og fremstille de mere specifikke Dsa, i forhold til en general-purpose del. De gør et pitch til “RISC-V” standard for chip instruktioner. RISC-V gør det muligt for mange virksomheder at ændre en standard sæt af instruktioner til at tune dele til et givent domæne. Hennessy og Patterson skriver, at den nye æra af chip-design er beslægtet med agile udvikling i software, med masser af gentagelser er, at få de nye chips ud af døren hurtigt, og derefter forbedre derfra.
Duoen se en lys fremtid for innovation. “Denne lavine af [dybt neurale netværk] arkitekturer gør for en interessant tid i computer arkitektur.
“Det er svært at forudsige, i 2019, som (eller endda hvis nogen) af disse mange retninger vil vinde, men markedet vil helt sikkert afvikle konkurrencen netop som det afgjort den arkitektoniske debat af fortiden.”
Tidligere og relaterede dækning:
Hvad er AI? Alt, hvad du behøver at vide
En executive guide til kunstig intelligens, fra machine learning og generelt AI til neurale netværk.
Hvad er dyb læring? Alt, hvad du behøver at vide
Den lowdown på en dyb læring: fra hvordan det relaterer til det bredere felt af machine learning igennem til, hvordan du kommer i gang med det.
Hvad er machine learning? Alt, hvad du behøver at vide
Denne vejledning forklarer, hvad machine learning er, hvordan det er relateret til kunstig intelligens, hvordan det fungerer, og hvorfor det er vigtigt.
Hvad er cloud computing? Alt, hvad du behøver at vide om
En introduktion til cloud computing-lige fra det grundlæggende op til IaaS og PaaS, hybrid, offentlige og private cloud.
Relaterede Emner:
Udvikler
Digital Transformation
CXO
Tingenes Internet
Innovation
Virksomhedens Software