0
Microsoft har varit med field-programmable gate arrays (Fpga) för att förbättra prestanda och effektivitet av Bing och Azure för de senaste åren.

Men nästa år planerar Microsoft att göra denna typ av FPGA processorkraft tillgängliga för utvecklare som kommer att kunna använda den för att köra sina egna uppgifter, inklusive intensiva artificiella intelligens och kära, som djupt neurala nätverk (DNN).
På sin Bygga developers conference den här Våren, Azure CTO Mark Russinovich beskrivs Microsoft ‘s big-picture planer för att leverera Hårdvara Microservices” via Azure-moln. Russinovich berättade deltagare att när Microsoft löser några kvardröjande säkerhet och andra frågor som, “vi kommer att få vad vi anser vara en fullt konfigurerbara moln.”
“Detta är kärnan av en AI-cloud,” Russinovich sade, och “ett stort steg mot att demokratisera AI med kraften av FPGA.” (En bra resumé av Russinovich anmärkningar kan hittas i denna TheNewStack artikel.)
Fpga: er finns marker som kan vara anpassad konfigurerad efter de är tillverkade. Microsofts forskare har varit att göra arbetet i FPGA utrymme för mer än ett decennium.
Mer nyligen har Microsoft lagt till Fpga: er till alla sina servrar i Azure sina egna datacenter, samt genomförande av Fpga: er i några av de maskiner som makt Bing indexering servrar som en del av Projektet Katapult insatser. Microsofts Azure Snabbare Nätverk, som är allmänt tillgänglig för Windows och i förhandsgranska för Linux, också använder sig av Fpga: er under täcket.
I Maj, Russinovich sa att Microsoft inte har en fast tidslinje för när företaget kan vara redo att föra hårdvara microservices och FPGA-cloud-processorkraft till kunder utanför företaget. Men denna vecka, Microsoft tjänstemän sade att målet för detta är en tid i kalendern 2018.
Microsoft Hårdvara Microservices är byggd på Intels Fpga: er. (Intel köpte FPGA-maker Altera 2015.) Dessa marker, i kombination med Microsofts ramverk, kommer att ge förskott i snabbhet, effektivitet och fördröjning som är särskilt lämpade för att big-data arbetsbelastning.
Kredit: Microsoft
Microsoft även arbetar specifikt på DNN-bit via ett projekt med kodnamnet “Snilleblixt.” Microsoft visat Snilleblixt offentligt på bolagets Tända 2016 konferens, när Microsoft använde det för att köra en massiv språk-översättning demonstration på Fpga: er.
Microsoft tjänstemän planerar att diskutera Snilleblixt i bolagets senaste Fakulteten Forskning Toppmötet i Redmond, som var helt tillägnad AI, men titta på den uppdaterade agenda, verkar det hänvisningar till Snilleblixt togs bort.
Hjärnvågorna är en djup-learning plattform körs på FPGA-baserad Maskinvara Microservices, enligt en Microsoft-presentation på sin konfigurerbara-cloud planer från och med 2016. Som presentation nämner “Hardware Acceleration som en Tjänst” i hela datacenter eller Internet. Hjärnvågorna distribuerar neurala nätverk modeller över så många Fpga: er som behövs.
Microsoft är inte det enda företaget som ser till Fpga: er i sina moln datacenter, både Amazon och Google använder specialbyggda kisel för AI uppgifter.
Amazon erbjuder redan en FPGA EC2 F1 instans för planeringen av Xilinx Fpga: er och ger en hardware development kit för FPGA. Google har gjort arbetet kring utbildning djupt lärande modeller i TensorFlow, dess machine-learning programvara bibliotek och har byggt sin egen underliggande Tensor Processing Unit kisel.
0