0
Microsoft har brugt field-programmable gate arrays (Fpga) for at forbedre ydeevnen og effektiviteten af Bing og Azure for de sidste par år.

Men næste år, har Microsoft planer om at gøre denne form af FPGA regnekraft til rådighed for udviklere, der vil være i stand til at bruge den til at køre deres egne opgaver, herunder intensive kunstig intelligens dem, ligesom dyb-neurale netværk (DNN).
På sin Bygge developers conference i dette Forår, Azure CTO Mark Russinovich skitseret Microsoft ‘ s big-billede planer for at levere “Hardware Microservices” via Azure cloud. Russinovich fortalte deltagerne, at når Microsoft løser nogle dvælende sikkerhed og andre spørgsmål, “vi vil have, hvad vi anser for at være en fuldt konfigurerbar sky.”
“Dette er kernen i en AI-cloud,” Russinovich sagde, og “et vigtigt skridt mod at demokratisere AI med magt af FPGA’ en.” (Et godt resumé af, Russinovich ‘ s bemærkninger kan findes i denne TheNewStack artikel.)
Fpga ‘ er chips, der kan være tilpassede efter de er fremstillet. Microsoft forskere har gjort arbejdet i FPGA plads til mere end et årti.
Mere for nylig, at Microsoft har tilføjet Fpga ‘er til alle sine Azure servere i sine egne datacentre, samt gennemførelse af Fpga’ er i nogle af de maskiner, der power Bing ‘ s indeksering servere som en del af sit Projekt Katapult indsats. Microsofts Azure Accelereret netværkstjeneste, som er alment tilgængelige for Windows og i preview til Linux, også gør brug af Fpga under dynen.
I Maj, Russinovich sagde, at Microsoft ikke har en fast tidslinje for, hvornår virksomheden kan være klar til at bringe hardware microservices og FPGA cloud-behandling til kunder uden for virksomheden. Men i denne uge, Microsoft embedsmænd sagde, at målet for at gøre dette er nogle tid i kalender 2018.
Microsofts Hardware Microservices er bygget på Intel Fpga. (Intel købte FPGA-maker Altera i 2015.) Disse chips, kombineret med Microsoft ‘ s rammer, vil give fremskridt i hastighed, effektivitet og ventetid, der er særligt velegnet til store-data arbejdsmængder.
Kredit: Microsoft
Microsoft også arbejder specifikt på DNN stykke via et projekt med kodenavnet “Indfald.” Microsoft viste BrainWave offentligt på selskabets Antænde 2016 conference, hvor Microsoft har anvendt det til at køre en massiv sprog-oversættelse demonstration på Fpga.
Microsoft embedsmænd havde planer om at diskutere Brainwave på selskabets seneste Naturvidenskabelige Forskning-Topmødet i Redmond, som var helt dedikeret til AI, men ser man på den opdaterede dagsorden, det synes henvisninger til Brainwave blev fjernet.
BrainWave er en dyb-learning platform, der kører på FPGA-baseret Hardware Microservices, ifølge en Microsoft præsentation af sit konfigurerbar-cloud-planer fra 2016. Denne præsentation nævner “Hardware Acceleration som en Service” på tværs af datacentre eller Internettet. BrainWave distribuerer neurale netværksmodeller på tværs af så mange Fpga ‘ er, som er nødvendig.
Microsoft er ikke den eneste virksomhed, der ønsker at Fpga ‘ er i sin cloud-datacentre, både Amazon og Google er ved hjælp af custom-bygget silicium til AI opgaver.
Amazon tilbyder allerede en FPGA EC2 F1 eksempel for programmering Xilinx Fpga ‘er og giver et hardware development kit til FPGA’ en. Google har været at gøre arbejdet omkring uddannelse dybt-læring modeller i TensorFlow, sin maskine-learning software bibliotek, og har bygget sin egen underliggende Tensor Processing Unit silicium.
0