Hoe Microsoft van plan om zich Azure in een ‘AI cloud’

0
136

0

Microsoft is met behulp van field-programmable gate arrays (fpga ‘ s) om de prestaties te verbeteren en de efficiëntie van Bing en Azure voor de laatste paar jaar.

fpgaconfigurablecloud.jpg

Maar volgend jaar, Microsoft plannen om dit soort FPGA rekenkracht beschikbaar voor ontwikkelaars die in staat zal zijn om te gebruiken voor het uitvoeren van hun eigen taken, met inbegrip van de intensieve kunstmatige intelligentie, zoals diep-neurale netwerken (DNN).

Bij het Bouwen ontwikkelaars conferentie van dit Voorjaar, Azure CTO Mark Russinovich geschetst van Microsoft grote plannen voor het leveren van “Hardware Microservices” via de Azure cloud. Russinovich vertelde de aanwezigen dat zodra Microsoft lost een aantal aanhoudende veiligheid en andere problemen, “we hebben wat wij beschouwen als een volledig configureerbare cloud.”

“Dit is de kern van een AI-cloud” Russinovich gezegd, en “een belangrijke stap in de richting van de democratisering van AI met de kracht van de FPGA.” (Een goede samenvatting van Russinovich ‘ s opmerkingen kunnen worden gevonden in deze TheNewStack artikel.)

Fpga ‘ s zijn chips die kunnen op maat worden geconfigureerd nadat ze zijn vervaardigd. Microsoft onderzoekers zijn werk doen in de FPGA ruimte voor meer dan een decennium.

Meer recent, Microsoft heeft toegevoegd fpga ‘s aan al zijn Azure servers in de eigen datacenters, evenals de uitvoering van fpga’ s in sommige van de machines die de kracht van Bing indexeren servers als onderdeel van haar Project Katapult inspanningen. Microsoft ‘s Azure Versnelde Networking service, die over het algemeen beschikbaar voor Windows en in de preview voor Linux, maakt ook gebruik van fpga’ s onder de dekens.

In Mei, Russinovich zei dat Microsoft niet in een stevige tijdlijn wanneer het bedrijf gereed zou zijn om hardware microservices en FPGA ‘ cloud-processing power naar klanten buiten het bedrijf. Maar deze week, Microsoft ambtenaren zei dat het doel om dit te doen is wat tijd in de agenda 2018.

Microsoft ‘s Hardware Microservices zijn gebaseerd op Intel fpga’ s. (Intel kocht FPGA-maker Altera in 2015.) Deze chips, in combinatie met Microsoft-kader, zal de vooruitgang in snelheid, efficiëntie en latentie dat zijn met name geschikt voor big-data-infrastructuur.

brainwaveneuralnets.jpg
Credit: Microsoft

Ook Microsoft werkt specifiek op de DNN stuk via een project met de codenaam “Brainwave.” Microsoft aangetoond BrainWave in het openbaar op het bedrijf Ontsteken 2016 conferentie, wanneer Microsoft gebruikt om een enorme taal-vertaal-demonstratie op fpga ‘ s.

Microsoft ambtenaren van plan waren om te bespreken Brainwave van de vennootschap recente Facultaire Onderzoek-Top in Redmond, die volledig was gewijd aan de AI, maar kijken naar de bijgewerkte agenda, het lijkt verwijzingen naar Hersengolven werden verwijderd.

BrainWave is een diep-learning platform draait op een FPGA-gebaseerde Hardware Microservices, volgens een Microsoft presentatie op de configureerbare-cloud plannen van 2016. De presentatie vermeldt “Hardwareversnelling as a Service” in datacenters of het Internet. BrainWave verdeelt neurale netwerk modellen over zoveel fpga ‘ s als dat nodig is.

Microsoft is niet het enige bedrijf dat op zoek is naar fpga ‘ s in de cloud datacenters, zowel Amazon en Google zijn met behulp van custom-built silicium voor AI taken.

Amazon biedt al een FPGA EC2 F1 aanleg voor het programmeren van Xilinx fpga ‘ s en biedt een hardware development kit voor de FPGA. Google heeft zijn werk doen rondom de training diep-leren-modellen in TensorFlow, de machine-learning software bibliotheek en heeft haar eigen onderliggende Tensor Processing Unit silicium.

0