Microsoft Azure CTO Russinovich vede un’intelligenza artificiale del mondo che suona un po ‘ come Visual Basic

0
124

Walmart e Microsoft Azure segno strategico digitale partnership
Beh, non credo che Walmart stava per partner con Amazon Web Services.

Le persone che dovrebbero conoscere meglio la luce fino sigarette accanto alle pompe di benzina.

Che è una sorprendente scoperta in Microsoft deployment della sua macchina capacità di apprendimento di ciò che è noto come il “bordo” dell’informatica, in questo caso, presso le stazioni di gas.

È immaginabile l’accensione di una sigaretta potrebbe innescare una complessa rete di attività che potrebbe essere gestito tramite funzioni che sono simile a Microsoft Visual Basic, linguaggio di programmazione.

Che la realtà sta prendendo forma, come ha spiegato la settimana scorsa da Mark Russinovich, chief technologist per Microsoft Azure cloud computing.

Russinovich, che è stato il CTO posto in Azzurro per quasi cinque anni, e che è un 13-anno veterano del gigante del software, è stata a New York la scorsa settimana e ha trascorso qualche tempo a parlare con me su come funziona un web dell’intelligenza artificiale, machine learning, in definitiva, essere legati da qualcosa che assomiglia a VB.

microsoft-mark-russinovich-april-2019.jpg

Mark Russinovich a New York la scorsa settimana. Russinovich è stato in Microsoft per tredici anni ed è direttore tecnico della società Azure cloud computing. Cuciture insieme di cloud computing e di “edge”, dispositivi che consentono all’azienda di costruire “computer di tutto il mondo”, come egli la descrive.

(Immagine: Tiernan Ray per ZDNet)

×

microsoft-mark-russinovich-april-2019.jpg

Che vorresti accendere una sigaretta accanto a una pompa di benzina, si potrebbe chiedere, come ho fatto io.

“A quanto pare”, ha detto Russinovich con una leggera risatina. Almeno, secondo clienti Microsoft, il gigante petrolifero Shell, che interviene con le sue stazioni di benzina, il negozio, qualcosa chiamato Azure Casella Dati Edge. Il prodotto è un elettrodomestico, un “1U” rack-mountable computer venduti da Microsoft. L’apparecchio download di apprendimento automatico di modelli addestrati in Azzurro per il riconoscimento di immagini, che viene eseguito all’interno di contenitori Docker per eseguire inferenza sulle immagini.

Inoltre: Può IBM possibilmente domare AI per le imprese?

I dati di immagine fed di Azure Casella Dati Edge da dispositivi a bassa potenza da pompe, che esegue una piccola runtime stack di software da parte di Microsoft, chiamato “Azure IoT Bordo.” Azure Casella Dati Edge esegue inferenza usando la sua formazione immagine di riconoscimento di modelli di monitor se qualche figura là fuori dalla pompa di benzina, è l’illuminazione.

“La pompa spenta automaticamente,” se il fumatore è rilevato, è di Shell intenzione in questi casi, dice Russinovich.

Shell è uno dei numerosi clienti che vedono il bisogno di prendere le funzioni di calcolo di Microsoft cloud e metterli in entrambi i centri dati, sempre più spesso, in luoghi remoti, come la fabbrica pavimenti, impianti di trivellazione del petrolio, del gas e stazioni. Starbucks è l’installazione di decine di migliaia di che cosa sono conosciuti come “Azure Sfera” dispositivi contenenti un microcontrollore che esegue Microsoft codice di sicurezza incorporato nel chip.

Starbucks possibile utilizzare Sfera di eseguire la manutenzione predittiva sulle loro macchine da caffè. Kroeger, il gigante del retail, sta mettendo Azure Dati Casella di Bordo in tutti i loro negozi, per il controllo di LED mostra sugli scaffali a vedi offerte speciali sui prodotti. L’apparecchio può eseguire inferenza sulle immagini di acquirenti, di riconoscere che-qualcosa, Russinovich sottolinea, è conservato all’interno del negozio, invece di essere inviati al cloud, per motivi di privacy.

Anche: Impresa AI e machine learning: il Confronto tra le aziende e le applicazioni

Tutto questo si somma a quello che Russinovich chiama “costruzione di computer di tutto il mondo.” Ma che cosa sarà cravatta che tutti insieme? Microsoft ha una versione di ciò che è noto è che nel calcolo come “serverless”, dove le infrastrutture non devono essere specificati, e la funzionalità è senza sforzo richiamato da un programmatore con una semplice chiamata di funzione. La versione di Microsoft è “Azure Funzioni”.

Le funzioni possono essere utilizzate per cucire insieme la collezione di dispositivi di elaborazione, da un semplice Raspberry Pi computer in un negozio per la Casella di edge server in locale armadio di cablaggio, fino ad istanze di cloud che eseguono operazioni di addestramento.

Russinovich spiega la pipeline prevede per tutti questi dispositivi, con funzioni come una sorta di colla:

Se si da un’occhiata a bordo di applicazione che, come immagino, l’inferenza parte di essa dovrà essere una sola cosa. Ci saranno funzioni che stanno rispondendo alle uscite di ML modello. Tale funzione è sputare fuori i dati che poi trasmessi fino al cloud, è la creazione di un avviso, o solo innescando una collezione di immagine per la conservazione e quindi di aggregazione. Penso che ci sarà una pipeline di circa i dati, e le risposte per i dati. Alcuni di esso coinvolge il cloud, un po ‘ verrà completamente il locale.

I Russinovich che, per me, l’utilizzo di Funzioni fa sembrare come se fosse eseguire tutti di apprendimento automatico da un’applicazione di Visual Basic. “E’ divertente che hai citato, che” risponde lui, “perché nel nostro brainstorming di che tipo di modello di programmazione creiamo, un modello che sarebbe coerente cloud e edge, il nostro modello mentale è, andiamo dopo la stessa impresa per gli sviluppatori professionali che abbiamo fatto tanto successo con Visual Basic”.

Non ci sono ancora cose che devono andare a posto con tutte queste nuvole, e il bordo di parlare.

Come più e più inferenza è svolto presso il bordo, più e più avanzate hardware è necessario per i dispositivi di bordo, siano essi in un data center, un armadio di cablaggio, o su un Raspberry Pi.

Attualmente, Azure Dati Casella di Bordo di navi con “Arria” chip Intel, field-programmable gate array, i cui circuiti possono essere regolati per la ML modello che viene scaricato. Microsoft collettivamente dubs sua FPGA utilizzare in the cloud “colpo di genio”, utilizzando i chip di Intel accoppiato con la tecnologia che Microsoft si applica per i chip. Google e Amazon, però, sono andati per la loro strada, in via di sviluppo in-house, un circuito personalizzato per l’inferenza.

Quando chiedo Russinovich se Microsoft per andare quell’itinerario, lui risponde “penso che questo è qualcosa che siamo stati a guardare.” Ma aggiunge subito che Microsoft ha sviluppato il “apri rete neurale exchange” o ONNX, Facebook e Amazon, per sostenere il nuovo inferenza trucioli provenienti da una serie di start-up. “È una delle grandi iniziative che abbiamo preso per assicurarsi che siamo pronti per qualunque cosa succede se stiamo innovando con hardware o di qualcun altro”, ha dice.

Deve leggere

Che cosa è l’IA? Tutto il necessario per knowWhat è profondo apprendimento? Tutto il necessario per knowWhat è la macchina di apprendimento? Tutto il necessario per knowWhat è il cloud computing? Tutto quello che devi sapere

Un altro problema è la formazione di reti neurali. Anche se la stragrande maggioranza di addestramento di reti neurali continuerà ad essere nel cloud per motivi economici, dice Russinovich, è anche il caso che alcuni clienti potrebbero volete portare un po ‘ di allenamento a bordo nel corso del tempo.

Nuovi brani dovranno essere messi in atto per farlo, dice, e lui note che Microsoft team di ricerca sta lavorando su molte tecnologie per portare AI modelli a bordo con “precisione ridotta” aritmetica che nessuno-la-meno conserva la precisione che si ha quando si formazione nel cloud.

“Il più ricco di applicazioni e programmi di modelli che saranno in via di sviluppo, stiamo facendo in modo che vadano giù, per quanto possibile,” dice Russinovich.

“Ora, quando avete finito di quattro mega [di memoria capaity], sei abbastanza limitato, ma, un sacco di cose possono spingere verso il basso in Raspberry Pi dispositivi di classe.”

Come per PyTorch, chiedo Russinovich circa la recente affermazione da Facebook testa di AI, Yann LeCun, che Python deve essere sostituito da qualche altro linguaggio di programmazione che sarebbe meglio disposti ad ai e machine learning. Russinovich ha respinto la nozione immediatamente.

“Penso che la gente può parlare di questo, ma non abbiamo visto [Python] va da nessuna parte, che è il motivo per cui il nostro Azure ML SDK è in python.

“Perché è quello che i dati scienziati amore!”

Intelligenza Artificiale

Può IA sconfitta di false notizie?

Esecuzione:AI prende il AI e gestisce, con il super-veloce stack di software del futuro

Enterprise AI 2019: che Cosa è necessario sapere

I veri costi e ROI di attuazione AI enterprise

Come AI aiuta il riconoscimento facciale di conoscere davvero il tuo volto (CNET)

Come implementare l’IA e il machine learning (TechRepublic)

Argomenti Correlati:

Big Data Analytics

La Trasformazione Digitale

CXO

Internet delle Cose

L’innovazione

Enterprise Software