Introduzione
Big data analytics è stato un popolare buzzphrase per il passato parecchi anni. Con l’esplosione di dati disponibili da interazioni con i clienti, le operazioni, le chiamate di supporto, e i social media – solo per citarne alcune fonti, le aziende hanno lottato coraggiosamente per memorizzare grandi quantità di informazioni e, cosa più importante, come trarre valore da esso.
L’Internet delle Cose (IoT) ha aggravato la sfida con l’aggiunta di feed di dati da sensori e dispositivi. Questi feed può contenere un tesoro di informazioni utili, se le aziende possono vagliare attraverso di loro in tempo reale e ottenere l’agilità di agire su di loro velocemente.
Il Cloud computing ha contribuito a risolvere la memorizzazione e l’elaborazione delle sfide inerenti IoT big data e analytics, con la sua infinita scala e pay-as-you-go modelli di pricing. Ricerca di mercato condotta negli ultimi mesi conferma questa tendenza.
Nel mese di ottobre del 2016, International Data Corporation (IDC) prevede che in tutto il mondo i ricavi per i big data e analytics crescere da $130.1 miliardi di euro nel 2016 per più di 203 miliardi dollari nel 2020. IDC ha inoltre rilevato che la spesa basato su cloud, big data e analytics soluzioni crescerà del 4,5 volte più veloce di spesa per soluzioni locali. Il motivo, secondo IDC 2016 Futurescape Relazione: “la Complessità della gestione in sede e fuori sede, i dati e la tecnologia è destinato ad aumentare e il numero di interni ed esterni, fonti di dati e tipi di continuare a crescere.”
Questa previsione si è certamente dimostrato preciso, Ecolab, un leader mondiale per l’acqua, l’igiene e tecnologie per l’energia e servizi. Con il suo North American operations sede a St. Paul, MN, Ecolab, che serve le aziende di tutto il mondo, specializzati in servizi di ristorazione, ospitalità, sanità, industriale, e le compagnie petrolifere e del gas. Ecolab offrono una vasta gamma di tecnologie, sistemi automatizzati di sistemi di monitoraggio basati su sensori, analisi dei dati, soluzioni chimiche e la competenza che aiuta i clienti a ridurre al minimo d’acqua dolce utilizzare, ottimizzare le prestazioni e ottimizzare il costo totale dell’operazione ma anche di mantenere l’ambiente pulito e sicuro.
In questa relazione, ci sente da professionisti presso Ecolab, con le loro parole, le loro esperienze, con lo spostamento di Ecolab s analytics infrastruttura nel cloud.
Una Rete Globale di Sensori
Ecolab vasto pool di dati comprende le informazioni da molte fonti diverse, ma il suo principale rete di sensori è parte di loro 3D TRASARTM Tecnologie per l’Acqua di Raffreddamento, Caldaie, Flottazione ad Aria Disciolta e Membrane.
“3D TRASAR è una tecnologia che in realtà è stato sviluppato nel 1988,” spiega Kevin Doyle, vice presidente del Global Digital Solutions presso Ecolab s Nalco Acqua di business. “Al momento, è stato di circa il tagging di sostanze chimiche in acqua, in modo che possiamo prendere le letture in tempo reale e di ottimizzare le prestazioni delle nostre operazioni dei clienti nelle loro torri di raffreddamento, caldaie e altri sistemi.”
L’hardware comporta sensori collegati, unità di controllo e i gateway di inviare informazioni Ecolab, aggiunge. “Ci sono sonde nel flusso d’acqua che sono la raccolta di dati, per la somma di circa 28 miliardi di punti di dati di un anno che raccogliamo su di 36.000 sistemi che abbiamo distribuito presso le sedi dei clienti.”

3D TRASAR monitor sostanze chimiche su larga scala di sistemi di acqua.
A seconda delle letture, sistemi automatizzati di regolare la ‘dose’ di sostanze chimiche necessarie per mantenere l’acqua pulita e fluida efficiente. “3D TRASAR è la misurazione della chimica in acqua e fare regolazioni in tempo reale,” Doyle dice. Gli obiettivi sono quelli di ridurre la quantità di acqua utilizzata, per evitare che i microbi da costruire in acqua, e per ridurre o eliminare il calcare e la ruggine che possono avere un impatto di attrezzature costose.
“Anche prima di tutto questo IoT è diventato grande, abbiamo avuto il nostro 3D TRASAR controller e serbatoi di reporting per noi”, ricorda Bhavik Shah, application development manager presso Ecolab. “Abbiamo usato per ottenere circa 1,2 milioni di documenti al giorno. Che è un sacco di dati.”
Craig Senese, direttore di analisi e di Sviluppo, sottolinea che Ecolab ha avuto la lungimiranza di avviare l’acquisizione di dati in forma digitale a partire dai primi anni del 2000, ben prima dell’IoT e big data analytics aveva preso possesso.
“La cosa interessante è che 15 anni fa c’è stata la lungimiranza di sapere che si desidera acquisire i dati per il web”, Senese, dice. “3D TRASAR unità sono non solo controlla, torri di raffreddamento, sono anche l’invio di dati sulle caldaie che abbiamo di servizio.. Quindi non solo stanno facendo il servizio di controllo della chimica nei sistemi idrici, stanno fornendo tutti i dati che vedono in tempo reale. Abbiamo questa lunga storia di dati che stiamo solo ora a salire e l’estrazione di valore da quello di aiutare i nostri clienti. 3D TRASAR è stato un grande segue per noi nel mondo digitale prima non sapevamo nemmeno dove eravamo diretti.”
Analytics Senza Cloud
Ecolab del team di progetto sono distribuiti tra gli stati UNITI e l’India. Un piccolo esercito di 120 ingegneri chimici con sede a Pune, in India, monitor sensore di feed in tempo reale. Poi ci sono circa 60 i professionisti dello sviluppo divisi in team di progetto. Il team di utilizzare le tecniche di sviluppo Agile e Scrum framework per mantenere i progetti in movimento.
“La maggior parte del nostro team di architetti, sviluppatori, tester e un Scrum master,” Shah dice. “Prima ci siamo spostati nel cloud, tutto il nostro sviluppo è stato fatto in casa. Tutti i nostri server sono situati in Naperville.”
“Manteniamo i nostri data center. Era abbastanza frammentato”, ricorda Senese. “Abbiamo circa 60 professionisti di sviluppo in tutto il mondo, e, onestamente, era difficile per loro di lavorare insieme in un ambiente collaborativo.”
Shah descrive l’ambiente in questo modo: “utilizziamo le tecnologie Microsoft, in modo che abbiamo avuto Windows Server, SQL Server, e per le nostre applicazioni abbiamo utilizzato ASP.NET MVC, SharePoint, Silverlight, e per l’archiviazione dei dati, che abbiamo usato per usare SQL Server 2008”.
Ingegneri chimici presso Ecolab monitorare i siti di tutto il mondo.
Quando i dati arrivano in 3D TRASAR unità, egli aggiunge, il team ha utilizzato BizTalk Server per analizzare il file e aggiungerli al database. “Una delle questioni che è stato, che siamo stati memorizzare tutto in un unico, gigantesco tabella SQL”, dice. In tale tavolo ha dimostrato di essere un notevole collo di bottiglia.
“Abbiamo avuto un sacco di applicazioni andando in esso e cercando di leggere. Ci sono stati diversi casi di utilizzo per le diverse applicazioni. Per esempio, abbiamo voluto mostrare un grafico che riflette anno-su-anno. Che era molto lento, perché abbiamo dovuto leggere tutti i dati per più anni da una tabella SQL. In cima a quello, è stato davvero difficile per il nostro sistema di storage. Abbiamo usato per espandere il nostro storage così veloce che non sarebbe mai in grado di prevedere [requisiti] in futuro”.
Senese accetta che la necessità di una scala, si è rivelato una sfida quando queste analisi carichi di lavoro sono stati ospitati sul sito. “Quando vogliamo scala, c’è un sacco di costo — c’è un sacco timeline associato con esso,” dice.
In definitiva, la necessità per la scala e per la velocità stimolato Ecolab di adottare Servizi Cloud Microsoft. I risultati hanno superato le aspettative.
Analisi avanzata in Azure
“Con il Cloud di Microsoft, siamo in grado di scalare quasi all’infinito, in termini di spazio e di potenza di calcolo,” Senese dice. “Abbiamo una presenza globale, in modo che quando abbiamo lo sviluppo di prototipi e sviluppiamo le prove di concetto, poco dopo che abbiamo in scala molto rapidamente per un sacco di clienti e un sacco di diverse regioni del mondo. Quello che Microsoft Azure porta è la possibilità di adattarsi molto rapidamente, e si porta anche qualcosa che non abbiamo avuto in passato, è la potenza a fare il calcolo.”
“Con capacità illimitata e la capacità di analisi avanzate, siamo in grado di fare molto di più in tempo reale con i dati che stiamo raccogliendo,” Doyle, spiega. “Inoltre, ci permette di raccogliere ancora più dati di quanto siamo stati in grado di prima, combinando i nostri dati con i dati esterni, alla condivisione delle informazioni con i nostri clienti, o di nuovi dispositivi IOT.”
“Anche prima di passare al cloud, siamo stati utilizzando le tecnologie Microsoft,” Shah dice, così lo spostamento di Azure è stata davvero una buona misura per noi.”
Un Ecolab esperto di diagrammi di flusso di dati provenienti da sensori per la nube di Alimentazione BI dashboard.
Avere un buon senso del carico di lavoro esistente e ottenere i risultati desiderati anche aiutato con la transizione. “Sapevamo che i nostri punti di dolore. Abbiamo fissato i nostri obiettivi, la determinazione di ciò che vogliamo da Azure. Quindi ci siamo impegnati con Microsoft inizialmente per fare una prova di concetto. Abbiamo visto che la prova di concetto e fatto in modo che i nostri obiettivi si sarebbe ottenuto con Azure. Da lì, abbiamo iniziato a costruire soluzioni su di esso.”
Nelle fasi iniziali, Shah aggiunge, Ecolab, costruita capacità in Azzurro a fianco del suo on-premise, replicando il database SQL, in modo da non interrompere il servizio. “Abbiamo avuto tutti i nostri archiviazione dei dati in Azzurro così come on-premise. Che ci ha dato la flessibilità di spostare le nostre attuali applicazioni Azure, nonché di creare nuove soluzioni in Azure.
“Volevamo avere la corrente di applicazioni ancora di ottenere i dati dal [sistemi on-premise], ma assicurarsi che si dispone di un percorso di spostare di Azure. In modo che tutti i dati che arrivano al nostro centro dati di oltre un anno, ci reindirizzati — dopo il trattamento nel nostro centro dati — Azzurro”. Con applicazioni in esecuzione in parallelo, Shah e il suo team gradualmente diretta analytics carichi di lavoro di utilizzare i dati memorizzati in Azzurro, soprattutto per le nuove richieste, che veniva dall’gli utenti business e i clienti.
“C’era duplicare i dati,” Shah, ammette, “ma che non ci aiutano a far sì che la corrente le applicazioni possono ancora funzionare bene durante lo spostamento di Azzurro”.
Come la transizione continua, Shah e il suo team hanno scoperto che il “vecchio modo” di fare le cose non resistere nel cloud. “Dal punto di vista di memoria, è stato completamente SQL in locale. In Azure, abbiamo iniziato a usare la tabella di archiviazione, DocumentDB, dati laghi, archiviazione Blob – per assicurarsi che il suo utilizzo si adatta il modo che abbiamo di conservarla.”
La capacità di incorporare più diversi flussi di dati a rappresentare una sfida per Ecolab, ma con cui si erano già familiari. “Abbiamo avuto un sacco di formati di dati, come il nostro 3D TRASAR controller evoluti molto-abbiamo avuto tre versioni di già,” Shah dice. “Ogni volta che è uscita una nuova versione, abbiamo dovuto scrivere un nuovo processo di BizTalk. Una delle cose che abbiamo fatto in Azzurro è stato, abbiamo creato WebJobs, che noi chiamiamo ‘fornelli.’ [Il fornello] ottiene i dati grezzi per noi e poi la mette in un formato che è lo stesso su tutte le piattaforme. Che ci ha dato la capacità di analisi su di esso. Abbiamo anche utilizzare i servizi Azure come IoT Hub, l’Evento Hub, e Servizio Bus, per l’ingresso di tutti i dati.”
Con il fornello a posto, Shah e il suo team sono stati in grado di collegare il sensore alimenta direttamente Azure dati di negozi. “I sensori, attraverso un gateway, inviare i dati direttamente a Azure e l’IoT Hub. Da lì, siamo andati lo stesso flusso di dati [processo] che abbiamo avuto per il nostro controllore precedente, e alla fine è andato per lo stesso spazio di archiviazione.”
Avanti a Livello di Servizi per la Visualizzazione e la Previsione
I dati di Microsoft Azure consente di Ecolab per creare cruscotti interattivi e relazioni con facilità e di condividere le console tra dispositivi mobili. “Per la visualizzazione, abbiamo incorporato Alimentazione BI nella nostra applicazione,” Shah dice. “Abbiamo [anche] creato un paio di Xamarin app per iOS, Android, e UWP. Sono completamente fatto in Azure. Così abbiamo un’API ospitato su Azure, l’app di parlare di queste Api, e lo spazio di archiviazione è in DocumentDB.”
I report consentono ai clienti e Ecolab esperti di guardare il consumo di acqua a livello di impianto, a livello di cliente, o di livello enterprise. Il drill down dei dati, Shah dice, aiuta Ecolab individuare le aree in cui l’utilizzo di acqua può essere ridotto, per esempio.
Cruscotti in Power BI aiutare i clienti a visualizzare e analizzare i dati.
Essere in grado di aggregare i dati storici insieme con i feed in tempo reale, e quindi di correlare con fonti dati esterne, come le previsioni meteo, per esempio, porta Ecolab, lungo il sentiero per il massimo obiettivo di analytics: la capacità di prevedere i problemi prima che accadano.
“Storicamente, ci concentriamo principalmente su reattiva di tipo scenari,” Senese dice. “Vogliamo ottenere molto di più predittivo, e il modo per farlo è quello di utilizzare dati e di costruire modelli predittivi intorno ad esso. Abbiamo i dati per farlo ora. Abbiamo solo bisogno di uscire, di costruire modelli, di utilizzare i dati che abbiamo, e di utilizzare le competenze che abbiamo internamente.”
Doyle è d’accordo. “Un progetto in particolare stiamo lavorando ora è predictive analytics giro di agenti patogeni nell’acqua di ruscello, per fornire acqua potabile per le persone in tutto il mondo. Con [3D TRASAR] di dati e di informazioni come l’umidità o la temperatura e le altre fonti esterne di dati, combinati con programmi del cliente circa il trattamento dei propri impianti, siamo in grado di determinare se qualcosa di simile a un agente patogeno è andando a creare un problema. Quindi siamo in grado di assicurarsi di avere il diritto di programmi in atto per il trattamento di loro, in modo da essere conformi con l’acqua di programmi di sicurezza che abbiamo messo in atto e [impianti] sono in esecuzione in modo ottimale.”
Anche se gli algoritmi predittivi come questi richiedono significative di formazione e di sforzo, Doyle dice, di servizi cloud per garantire che si può essere ottimizzato e analizzati rapidamente. “Certamente, quando si parla di qualcosa come agenti patogeni in acqua e la protezione di persone di ammalarsi, si desidera assicurarsi che siete il più accurate possibile,” dice. “Questo è il bello del cloud; ci si può collegare in più dati e capire che cosa può aiutare con il rilancio dell’accuratezza.”
“Sento che ci sarà un sacco di crescita,” Shah dice, guardando al futuro. “Dovremmo essere in grado di analizzare tutti questi dati, tornare al business, e dire cosa si può fare con tutti questi dati.”
Egli cita Ecolab un sistema di allarmi che avvisano i clienti a squilibri chimici o lo spreco di acqua. “Una volta che l’allarme è attivato, gli ingegneri chimici, analizzare il sistema e cercare di capire che cosa potrebbe essere sbagliato. Quello che vogliamo fare è, se vediamo alcune tendenze in salita che in discesa con altri insiemi di dati, vogliamo allarme di loro anche prima.
“Queste cose sono davvero importanti per i nostri affari; perché se siamo in grado di prevedere up-front, che ci aiuta a dare un buon feedback al cliente, e penso che poi ci sia vincere”.
Conclusione
Sulla base delle osservazioni di Ecolab È personale, è chiaro che il cloud computing fornisce la piattaforma ideale per IoT e big data analytics. Le aziende che vogliono sfruttare questa importante tecnologia farebbe bene a prestare attenzione a Doyle consiglio: “Essere aggressivi con la tecnologia. Essere aggressivi con il passaggio al cloud. Ottenere la scala e l’agilità e la capacità analitiche avanzate che vengono con esso.”
Per saperne di più su Cloud Microsoft Azure Services e ascoltare direttamente dai professionisti di Ecolab, si prega di visitare il www.zdnet.com/feature/microsoft-advanced-analytics.