Microsoft zeigt off Brainwave ‘real-time-AI’ – Plattform auf FPGAs

0
153

0

Am August 22, Microsoft enthüllt (mal wieder) seine Projekt-Idee deep-learning-Beschleunigung Plattform für Echtzeit-künstliche-Intelligenz – (KI).

(Ich sage immer wieder, denn Microsoft hat darüber gesprochen, Brainwave vor — mindestens ein paar mal im Jahr 2016. Diese Zeit, die Gehirnwellen-Enthüllung geschah auf der Hot Chips bis 2017 in dieser Woche.)

Brainwave besteht aus einem high-performance-distristributed system-Architektur, hardware -, tief-neuronale Netzwerk-engine läuft auf anpassbare chips bekannt als field-programmable gate arrays (FPGAs); und einen compiler und Laufzeitumgebung für die Bereitstellung von trainierten Modelle nach heutigen Microsoft Research blog-post.

Wenn Sie eine etwas weniger Schlagwort und acronym-beladene Bild, wie das aussieht, könnte dies helfen:

brainwave2fromaug2016.jpg
Credit: Microsoft

Als ich gebloggt im letzten Monat, Brainwave ist ein deep-learning-Plattform ausgeführt auf FPGA-basierten Hardware-Microservices, laut einer Microsoft-Präsentation auf seinem konfigurierbaren cloud-Pläne ab 2016. In der Präsentation erwähnt “Hardware Acceleration as a Service” in Rechenzentren oder im Internet. Brainwave verteilt neuronale Netzwerk-Modelle in möglichst vielen FPGAs, wie gebraucht.

Wie ich bereits Ende letzten Monats, Microsoft wurden die Beamten der Planung zu diskutieren Gehirnwellen bei der Firma jüngsten Fakultät Research Summit in Redmond im Juli, aber Ihre Meinung geändert.

Auf der Hot Chips 2017, Microsoft-Beamte sagte, dass die Verwendung von Intel ‘ s neuen Stratix-10-chip, Brainwave erzielt nachhaltige Leistung von 39,5 teraflops ohne Batchverarbeitung. Microsoft ‘ s point: Brainwave ermöglichen Azure-Benutzer für die Ausführung von komplexen deep-learning-Modelle auf diese Art von Leistung.

Hier ist eine neue Architektur-Diagramm aus Microsoft ‘ s Hot-Chips-Präsentation zeigt die Komponenten der Brainwave:

brainwavestack.jpg
Credit: Microsoft

Microsoft ist auf der Suche, um Gehirnwellen-Ausführung auf hardware-microservices als schob die Grenze für die Arten von AI-beeinflusst services möglich, um die Bereitstellung in der cloud, darunter computer vision, natural language processing and speech.

Microsoft-Beamte haben gesagt, Sie machen FPGAs an externe Entwickler über Azure im Kalender 2018.

Microsoft ist nicht das einzige Unternehmen suchen, um FPGAs in seinen cloud-Rechenzentren; Amazon und Google sind mit custom-built-silicon für KI-Aufgaben.

FRÜHERE UND VERWANDTE COVERAGE

Wie Microsoft plant, den turn Azure in eine “AI-cloud’

Microsoft ist weiter voran, um FPGA-Verarbeitungsleistung zur Verfügung, um externe Azure-Entwickler für Daten-intensive Aufgaben wie tiefen-neural-Netzwerk-Aufgaben.

Microsoft für die Implementierung von ‘Katapult’ programmierbare Prozessoren in seinen Rechenzentren

Ein Microsoft-Research-pilot konzentrierte sich auf field-programmable gate arrays im Datencenter vergangen aufbringen und umgesetzt werden, durch die Bing-team im Jahr 2015.

Azure ist immer der erste KI-supercomputer, sagt Microsoft

Microsoft-CEO, wie seine cloud-computing-service entwickelt sich weiter

0