0
Den 22 augusti, presenterade Microsoft (igen) för sitt Projekt Snilleblixt djupt lärande acceleration plattform för realtids-artificiell intelligens (AI).
(Jag säger det igen, eftersom Microsoft har talat om Snilleblixt förut-minst ett par gånger i och med 2016. Den här gången Snilleblixt avtäckningen skedde på Hot Chips 2017 denna vecka.)
Hjärnvågorna består av en hög prestanda distristributed system arkitektur, en maskin djupt neurala nätverk motorn körs på anpassningsbara marker kallas field-programmable gate arrays (Fpga); och en kompilator och runtime för distribution av utbildade modeller, enligt dagens Microsoft Research blogginlägg.
Om du vill ha en något mindre modeord och förkortning-ladin bild av hur detta ser ut, det här kan hjälpa:

Kredit: Microsoft
Som jag bloggade förra månaden, Hjärnvågorna är en djup-learning plattform körs på FPGA-baserad Maskinvara Microservices, enligt en Microsoft-presentation på sin konfigurerbara-cloud planer från och med 2016. Som presentation nämner “Hardware Acceleration som en Tjänst” i hela datacenter eller Internet. Hjärnvågorna distribuerar neurala nätverk modeller över så många Fpga: er som behövs.
Som jag konstaterade i slutet av förra månaden, Microsoft tjänstemän planerar att diskutera Snilleblixt i bolagets senaste Fakulteten Forskning-Toppmötet i Göteborg i juli, men ändrade sig.
På Hot Chips 2017, Microsoft tjänstemän sade att använda Intels nya Stratix-10 marker, Hjärnvågorna uppnås bibehållen prestanda 39.5 teraflops utan dosering. Microsofts punkt: Snilleblixt kommer att göra det möjligt Azure användare att köra komplexa djupt lärande modeller på dessa typer av nivåer av prestanda.
Här är en ny arkitektonisk diagram från Microsoft ‘ s Hot Chips presentation som visar delar av Snilleblixt:
Kredit: Microsoft
Microsoft är ute efter att Hjärnvågorna som körs på maskinvara microservices som att dra gränsen för olika typer av AI-influerade möjligt att distribuera tjänster i molnet, bland annat computer vision, naturligt språk och tal.
Microsoft tjänstemän har sagt att de kommer att göra Fpga: er tillgängliga för externa utvecklare via Azure i kalendern 2018.
Microsoft är inte det enda företaget som ser till Fpga: er i sina moln datacenter, både Amazon och Google använder specialbyggda kisel för AI uppgifter.
TIDIGARE OCH RELATERADE TÄCKNING
Hur Microsoft planer på att göra en Azure i en ‘AI moln”
Microsoft är att arbeta vidare för att göra FPGA processorkraft tillgängliga för externa Azure-utvecklare för data-intensiva uppgifter som djupt neurala nätverk uppgifter.
Microsoft att genomföra en “Katapult’ programmerbara processorer i sina datacenter
En Microsoft Research pilotprojekt inriktat på field-programmable gate arrays i datacenter har gått uppbåda och kommer att genomföras av Bing team 2015.
Azure är på väg att bli den första AI superdator, säger Microsoft
Microsofts VD på hur cloud computing tjänst är under utveckling
0