Come Microsoft prevede di girare Azure in un ‘AI cloud’

0
177

0

Microsoft ha utilizzato field-programmable gate array (Fpga) per migliorare le prestazioni e l’efficienza di Bing e Azzurro per gli ultimi anni.

fpgaconfigurablecloud.jpg

Ma il prossimo anno, Microsoft prevede di rendere questo tipo di FPGA potenza di elaborazione disponibile per gli sviluppatori che saranno in grado di usarlo per eseguire i propri compiti, tra cui per la cpu dotato di intelligenza artificiale, come la deep-neural network (DNN).

A sua Build developers conference di questa Primavera, Azure, CTO di Mark Russinovich delineato Microsoft big-picture piani per l’erogazione di “Hardware Microservices” via Azure cloud. Russinovich ha detto ai partecipanti che una volta che Microsoft risolve alcuni persistente di sicurezza e di altre questioni, “avremo ciò che noi consideriamo essere una cucina completamente configurabile cloud”.

“Questo è il nucleo di un AI cloud,” Russinovich ha detto, e “un importante passo verso la democratizzazione AI con il potere di FPGA.” (Un buon riassunto di Russinovich commento può essere trovato in questa TheNewStack articolo).

Gli fpga sono chip che può essere personalizzata dopo che sono state prodotte. I ricercatori Microsoft hanno fatto il lavoro in FPGA spazio per più di un decennio.

Più di recente, Microsoft ha aggiunto Fpga a tutti i server Azure nel proprio data center, così come l’attuazione di Fpga in alcune delle macchine che il potere di Bing server di indicizzazione come parte del suo Progetto Catapulta sforzi. Microsoft Azure Accelerato servizi di Networking, che è generalmente disponibile per Windows e in anteprima per Linux, fa anche uso di Fpga sotto le coperte.

In Maggio, Russinovich ha detto Microsoft non dispone di un’impresa timeline come quando l’azienda potrebbe essere pronto a portare hardware microservices e FPGA cloud-potenza di elaborazione per i clienti al di fuori della società. Ma questa settimana, Microsoft i funzionari hanno detto che l’obiettivo per fare questo è un po ‘ di tempo in calendario il 2018.

Microsoft Hardware Microservices sono costruite su Intel Fpga. (Intel comprato FPGA-maker Altera nel 2015.) Questi chip, accoppiato con Microsoft framework, fornirà progressi in termini di velocità, efficienza e latenza che sono particolarmente adatte a grandi carichi di lavoro di dati.

brainwaveneuralnets.jpg
Credito: Microsoft

Microsoft sta anche lavorando in particolare sulla DNN pezzo attraverso un progetto dal nome in codice “colpo di genio.” Microsoft ha dimostrato di onde cerebrali pubblicamente presso l’azienda di Accendere il 2016 conferenza, quando Microsoft ha utilizzato per eseguire una massiccia lingua-traduzione di dimostrazione su Fpga.

Microsoft funzionari hanno intenzione di discutere di onde cerebrali al recente dell’azienda di Ricerca di Facoltà Vertice di Redmond, che è stata interamente dedicata AI, ma guardando l’agenda aggiornata, sembra riferimenti a onde cerebrali sono stati rimossi.

Colpo di genio è una profonda piattaforma di apprendimento a distanza in esecuzione su Hardware basato su FPGA Microservices, in base a un articolo di presentazione sul suo configurabile-cloud piani, a partire dal 2016. La presentazione che parla di “Accelerazione Hardware as a Service” tra i data center o Internet. Onde cerebrali distribuisce reti neurali modelli in tanti Fpga come necessario.

Microsoft non è la sola azienda in cerca di Fpga nel suo data center cloud; Amazon e Google utilizza custom-built di silicio per AI compiti.

Amazon offre già un FPGA EC2 F1 istanza per la programmazione di Fpga della Xilinx e fornisce l’hardware kit di sviluppo per FPGA. Google ha fatto risolvere formazione profondo-modelli di apprendimento in TensorFlow, la sua macchina-software per l’apprendimento della biblioteca e ha costruito il suo sottostante Tensore Unità di Elaborazione di silicio.

0