0
Microsoft wurde mit Hilfe von field-programmable gate arrays (FPGAs) zur Verbesserung der Leistung und Effizienz von Bing und Azure für die letzten paar Jahre.

Aber im nächsten Jahr plant Microsoft für diese Art der FPGA-Verarbeitung macht für Entwickler zur Verfügung, die in der Lage zu verwenden, um Ihre eigenen Aufgaben, einschließlich der intensiv-künstliche-Intelligenz, wie tief-neural-Netzwerk (DNN).
Auf seiner Build-Entwickler-Konferenz in diesem Frühjahr, Azure-CTO Mark Russinovich skizziert Microsoft ‘ s big-picture-Pläne für die Bereitstellung von “Hardware Microservices” über die Azure-cloud. Russinovich, erzählte den Teilnehmern, dass, sobald Microsoft löst einige veraltete Sicherheits-und andere Fragen, “wir haben, was wir als eine vollständig konfigurierbare cloud.”
“Dies ist das Kernstück des AI-cloud,” Russinovich sagte, und “ein wichtiger Schritt in Richtung Demokratisierung der KI mit der Kraft des FPGA.” (Eine gute Zusammenfassung von Russinovich Ausführungen finden Sie in dieser TheNewStack Artikel.)
FPGAs-chips, kann individuell konfiguriert werden, nachdem Sie hergestellt werden. Microsoft-Forscher getan haben, die Arbeit in der FPGA-Platz für mehr als ein Jahrzehnt.
Mehr kürzlich, Microsoft Hinzugefügt hat, FPGAs, um alle seine Azure-Server in den eigenen Rechenzentren sowie die Implementierung von FPGAs in einigen der Maschinen, die power-Bing-Indexierung-Server als Teil des Projekt-Katapult Bemühungen. Microsoft Azure Beschleunigt-Networking-Dienst, das ist in der Regel für Windows und preview für Linux, auch die Verwendung von FPGAs unter der Decke.
Im Mai, Russinovich, sagte Microsoft nicht über eine Feste Zeitachse, wenn das Unternehmen bereit sein könnte zu bringen microservices hardware-und FPGA-cloud-Rechenleistung, um Kunden außerhalb des Unternehmens. Aber in dieser Woche, Microsoft-Beamte sagte, das Ziel, dies zu tun ist, einige Zeit in Kalender 2018.
Microsofts Hardware-Microservices basieren auf Intel FPGAs. (Intel gekauft FPGA-Hersteller Altera in 2015.) Diese chips, gekoppelt mit dem Microsoft-framework, bietet Fortschritte in der Geschwindigkeit, der Effizienz und Latenzzeit, besonders geeignet für big-data-workloads.
Credit: Microsoft
Auch Microsoft arbeitet speziell auf die DNN Stück über ein Projekt mit dem Codenamen “Brainwave.” Microsoft demonstriert BrainWave öffentlich bei der Firma Ignite-Konferenz 2016, wenn Microsoft verwendet, um eine riesige Sprache übersetzung-demonstration auf FPGAs.
Microsoft wurden die Beamten der Planung zu diskutieren Gehirnwellen bei der Firma jüngsten Fakultät Research Summit in Redmond, die Stand ganz im Zeichen AI, aber ein Blick auf die aktualisierte Tagesordnung, es scheint, Verweise auf Gehirnwellen wurden entfernt.
BrainWave ist ein deep-learning-Plattform ausgeführt auf FPGA-basierten Hardware-Microservices, laut einer Microsoft-Präsentation auf seinem konfigurierbaren cloud-Pläne ab 2016. In der Präsentation erwähnt “Hardware Acceleration as a Service” in Rechenzentren oder im Internet. BrainWave verteilt neuronale Netzwerk-Modelle in möglichst vielen FPGAs, wie gebraucht.
Microsoft ist nicht das einzige Unternehmen suchen, um FPGAs in seinen cloud-Rechenzentren; Amazon und Google sind mit custom-built-silicon für KI-Aufgaben.
Amazon bietet bereits eine FPGA-EC2-F1 Beispiel für die Programmierung von Xilinx FPGAs und bietet eine hardware-development-kit für FPGA. Google hat die Arbeit rund um die Ausbildung deep-learning-Modelle in TensorFlow, die machine-learning-software-Bibliothek erbaut und hat seine eigene zugrunde liegende Tensor Processing Unit silicon.
0