Zero

Immagine: Aleutie, Getty Images/iStockphoto
Viviamo in un mondo sempre più basato sui dati della società, in cui l’informazione è sempre più di una valuta come moneta. Molti consumatori utilizzano i servizi gratuiti da giganti di internet come Google, Facebook, Amazon, Microsoft e Apple, per esempio, e in cambio permettere a queste aziende di monitorare e monetizzare il loro comportamento online.
Una delle grandi questioni del giorno è l’apertura di tali operazioni, e il livello di controllo che gli individui hanno sul destino dei dati personali-a volte inconsapevolmente — divulgare ad organizzazioni con le quali interagiscono online. Recenti votazioni su entrambi i lati dell’Atlantico hanno evidenziato la capacità di dati di esperti di organizzazioni di hoover e il profilo di grandi quantità di dati utente — tra cui la demografia, il comportamento dei consumatori e l’attività internet — per micro-target di pubblicità, notizie e servizi a supporto di particolari obiettivi o le cause.
Chiaramente, i dati di porte ora di apertura per le imprese di tutte le dimensioni e descrizioni, portando una miriade di opportunità per l’analisi puntuale nel perseguimento di un vantaggio competitivo. Anche se il focus è attualmente inclinato verso il comportamento dei clienti, i dati sono disponibili in più punti del prodotto o servizio alla catena di fornitura, e viene in molte forme-tradizionale (strutturato), ad hoc (non strutturati), in tempo reale, e IoT – o M2M-generato, solo per citarne alcuni.
Le aziende che implementano i big data analytics correttamente possibile ottenere ricchi premi dal risparmio di costi, di efficienza e di generazione di entrate innovazioni. Questo può aiutare le aziende a raggiungere una trasformazione digitale, permettendo loro di mantenere la competitività di fronte a qualsiasi dirompente startup, che sono basati su dati quasi per definizione-che nascono nei loro mercati.
Tuttavia, utili informazioni aziendali non vengono automaticamente il flusso di un torrente di informazioni eterogenee: dati utilizzabili devono essere identificati, organizzati e analizzati, e i risultati attuati a livello di parti rilevanti del business. Che richiede pianificazione, di budget e di strumenti adeguati e di competenze.
Questa panoramica, e il resto di questo ZDNet relazione speciale, esamina la situazione di big data analytics. Si potrebbe avere superato il ‘picco hype’ sull’argomento — analista di Gartner è sceso Big Data dalla sua Hype Cycle for Emerging Technologies indietro nel 2015-ma ha ancora mantenuto la sua promessa?
La quantità di dati?
Tenta periodicamente di stimare la quantità di dati generati in tutto il mondo ogni anno, e in che forma. Torna nel 2014, IDC e EMC mettere l’Universo Digitale 4.4 zettabytes (ZB) nel 2013 — 4,4 trilioni di gigabyte — e previsto questo sarebbe cresciuta 44ZB nel 2020, più che raddoppiando ogni due anni. L’ultima stima, da IDC e i Dati di Seagate Età 2025 relazione, mette il 2025 figura (ora ribattezzato il ‘Global Datasphere’) a 163ZB — un aumento di dieci volte dal 16.1 ZB creato nel 2016.
Immagine: IDC/Seagate
IDC/Seagate relazione, inoltre, prevede che il grosso di tutto il mondo per la creazione dei dati passa da consumatori e aziende, questi ultimi, che rappresentano il 60 per cento entro il 2025. Tendenze guidare questo cambiamento, secondo il rapporto, sono: l’evoluzione di dati provenienti da background di vita critiche; sistemi embedded e l’IoT; cognitive e sistemi di intelligenza artificiale che modifica il paesaggio, mobile e dati in tempo reale; e di sicurezza, come un fondamento critico.
Tutti i dati ha bisogno di una casa, permanente o temporanea, che spiega l’interesse di una società di archiviazione come Seagate, che in questa zona.
In un comunicato il lancio di report, CEO di Seagate Steve Luczo (in procinto di diventare Presidente Esecutivo) ha detto: “Mentre possiamo vedere da questa nuova ricerca, che era dei Big Data è su di noi, il valore dei dati non è davvero il ‘noto’, ma il ‘sconosciuto’ dove ci sono ampiamente sottovalutando le potenzialità di oggi. Ciò che è veramente eccitante, sono la analytics, nuove imprese, nuove idee e di nuove ecosistemi da settori come la robotica e machine-to-machine learning, e il loro profondo impatto economico e sociale nella nostra società. La possibilità per le aziende di oggi e di domani, per gli imprenditori a cogliere il valore dei dati è enorme, e la nostra azienda globale leader di esplorare queste opportunità per i decenni a venire.”
Quali dati?
Di fronte sbalorditiva quantità di dati, CxOs potrebbe essere perdonato per la sensazione di essere sopraffatti. Ma, naturalmente, non tutti i dati sono idonei o disponibili per l’analisi. In Età 2025 in relazione, per esempio, IDC stima che entro il 2025 circa il 20 per cento dei dati nel globale datasphere sarà fondamentale per la nostra vita quotidiana, e il 10 per cento di quello che sara ‘ipercritico’:
Immagine: IDC/Seagate
La relazione rileva che: “L’emergere di ipercritico dati devono costringere le imprese a sviluppare e distribuire l’acquisizione dei dati, l’analisi e l’infrastruttura che garantisce un’affidabilità molto alta, larghezza di banda, e la disponibilità dei sistemi più sicuri; nuove pratiche di business; e anche le nuove leggi infrastrutture di mitigare l’esposizione al cambiamento e potenzialmente debilitante passività”.
AI e di apprendimento automatico saranno sempre più coinvolti nell’analisi dei big data, che restringe ulteriormente la quantità di dati disponibili. In Età 2025 report, IDC stima che entro la fine del 2025 solo il 15 per cento dei dati nel globale datasphere sarà etichettato — e quindi adatto per AI/ML analisi, e che solo il 20 per cento (3% del totale) sarà effettivamente analizzati da sistemi cognitivi:
Immagine: IDC/Seagate
Big Data, tendenze e previsioni
All’inizio di ogni anno, gli esperti in una varietà di tech campi offrono i loro riassunti delle tendenze attuali e fare previsioni per i prossimi 12 mesi. I Big data non è un’eccezione, e abbiamo raccolti più 2017 contributi, assegnazione di previsioni di un intervallo di emergenti categorie. Ecco come un campione di opinionista comunità visualizzati i big data paesaggio come 2017 ha preso il via:
Le previsioni da: Acodez, Big Data e Semplice, Datafloq, Datameer, Enterra Soluzioni, Gartner, HP Enterprise, IBM, Infogix, MapR, Oracle, Ovulo, Pentaho, Quantzig, RTInsights, Sysmech, Tableau Software
Analisi & immagine: ZDNet
Per i big data industria-watchers, il più influente area per il 2017 è ‘AI, apprendimento automatico, automazione e sistemi cognitivi’. Società di analisi Ovum, per esempio, suggerisce che “Machine learning è il grande distruttore” e che “le applicazioni di analytics incorporamento di machine learning stanno diventando la norma”. Aumento dei livelli di automazione sono quasi un inevitabile obbligo, se le organizzazioni sono per evitare di annegare in data — o, come Enterra Sistemi mette: “intelligenza Artificiale crescere in importanza come volume di dati aumenta”.
Il secondo classificato, tema ricorrente di dati di grandi esperti, è la comparsa di “Data-driven applicazioni di business’ (anche un tema chiave per questo ZDNet rapporto speciale). Oracle mette succintamente osservando che “le Applicazioni, non solo analytics, propel big data adozione”, mentre Gartner prevede che “i Dati e analytics auto moderne operazioni di business, e non riflettono semplicemente le loro prestazioni”.
Altri ampiamente citato tendenze e previsioni per il 2017 interesse ‘Informatica, i dati scientifici e i dati di ingegneria’, ‘Big data proliferazione & governance’ e ‘basato su Cloud analytics & integrata di servizi di dati’.
Cosa dicono le rilevazioni di
NewVantage Partner
Società di consulenza di direzione NewVantage Partner (NVP) è stata l’esecuzione di query di business e tecnologia decisori di aziende Fortune 1000 circa il loro big data distribuzioni dal 2012, che ha pubblicato il suo quinto rapporto di aprile 2017.
Il titolo, che emerge da NVP dei Big Data Executive Indagine 2017 è che l ‘ 80,7 per cento degli intervistati ha giudicato i loro dati di grandi investimenti per essere di successo, con il 48,4% di reporting ‘risultati misurabili’. Questi ultimi sono stati suddivisi in ‘più alta di successo’ (dirompente/innovativi di trasformazione, il 21%) e ‘di grande successo’ (evolutiva, il 27,4%).
Dati: NewVantage Partner / Grafico: ZDNet
Il drill-down in tipi di iniziative in corso, in cima alla lista in termini di risultati è la Diminuzione costi operativi efficienze di costo’, con il 72,6% degli intervistati a partire progetti e 49,2 per cento di reporting benefici. Questo dà un tasso di successo del 67,8%, che in realtà è migliorato da ‘Creare nuovi percorsi per l’innovazione e la perturbazione’ al 68,7 per cento di successo (il 64,5% ha iniziato, il 44,3% dei benefici).
Nonostante questi progetti di successo, le aziende Fortune 1000 intervistati da NewVantage Partner sembra essere ancora lottando per stabilire una data-driven cultura: il 69,4 per cento hanno promosso iniziative in questo settore, ma solo il 27,9% di rapporto benefici (il 40,2% di successo).
Tra gli impedimenti culturali, per i big data adozione, NVP sondaggio rileva Insufficiente allineamento organizzativo’ voce della lista presso il 42,6 per cento, davanti alla Mancanza di middle management adozione e la comprensione’ e ‘Business resistenza o la mancanza di comprensione” (41%):
Dati: NewVantage Partner / Grafico: ZDNet
La tabella di cui sopra suggerisce che i principali impedimenti culturali, per i big data adozione mentire con le unità di business, piuttosto che il reparto IT, così come le questioni riguardanti la governance dei dati, la tecnologia, la comprensione e la strategia in materia di dati sono tutti citati da un numero significativamente inferiore di intervistati (<30%).
Un indicatore chiave che un’organizzazione ha un data-driven cultura, o sta lavorando verso questo obiettivo, è la presenza di un Chief Data Officer (CDO). NVP del 2017 indagine mostra che le aziende Fortune 1000 sono state facendo progressi su questo fronte negli ultimi anni:
Dati: NewVantage Partner / Grafico: ZDNet
Sebbene il 60% delle imprese ha avuto un CDO nel 2016, solo il 12 per cento nel 2012, il loro ruolo attuale è stato visto come ‘difensiva’ a maggioranza (56%) di NVP s intervistati — soprattutto di reagire a tutte le normative e le esigenze di conformità. Andando avanti, i dirigenti credono che i Cdo dovrebbe diventare piu ‘offensivo’ — di prendere l’iniziativa per favorire l’innovazione, la costruzione di una data cultura e la gestione dei dati come un enterprise asset. Che, presumibilmente, perché la maggior parte (il 53,4%) ritengono che i Cdo dovrebbe riferire al CEO (il 35,6%) o il COO (17.8%), piuttosto che il CIO (15.6%).
NVP il sondaggio ha anche chiesto agli intervistati quali fattori di perturbazione — a parte i big data — prevedono impatto delle loro organizzazioni nel prossimo decennio. Non sorprende che, data l’attuale livello di hype che circonda il soggetto, intelligenza artificiale, machine learning è venuto fuori in cima — sia in singola che in multipla e formati:
Dati: NewVantage Partner / Grafico: ZDNet
GoDataDriven
(NB: ‘slimme’, che significa ‘smart’ in olandese)
Per una prospettiva Europea, abbiamo esaminato i Big Data rilevazione dati olandese di consulenza GoDataDriven, che è generato dalla i partecipanti al Big Data Expo nei paesi Bassi. Il 2016 sondaggio popolazione numerato 315, composto da 168 dirigenti e 147 gestori.
Quando è stato chiesto circa i principali fattori di successo big data attuazione, il frontrunner stato e ‘Una chiara visione’, citato da 71,4% degli intervistati, seguito da ‘il Sostegno di gestione’ (51.2%) e “sistemi a Supporto dei processi’ (40.1%):
Dati: GoDataDriven / Grafico: ZDNet
Come con la NewVantage indagine discusso in precedenza, ‘business’ fattori sembrano caratteristica più prominente rispetto a ‘E’ di problemi quando si tratta di dati di grandi successi.
Questo non per dire che i problemi non sono importanti, naturalmente. Quando è stato chiesto circa le sfide nella creazione di un’infrastruttura di big data, le prime due risposte questione di qualità dei dati e la disponibilità dei dati:
Dati: GoDataDriven / Grafico: ZDNet
Una volta che i dati di qualità sufficiente e di un data-driven processo di attuazione, gli intervistati hanno citato ‘Grande di dati, conoscenze e dati di competenza scientifica’ e ‘Ora disponibile per la sperimentazione”, come la più grande delle sfide:
Dati: GoDataDriven / Grafico: ZDNet
Una vasta gamma di aree di business, sono stati affrontati da applicazioni data-driven, guidato da analisi di mercato, marketing, web e negozi on-line applicazioni. Solo il 2,1 per cento dei Big Data, gli intervistati hanno riferito che non avevano applicazioni data-driven.
Come NewVantage Partner, GoDataDriven chiesto la sua indagine sulla popolazione sull’intelligenza artificiale. Anche se solo il 14,3 per cento erano in corso di attuazione profondo di apprendimento e di AI, il 52 per cento erano in fase di sviluppo o in progetto di implementare un profondo apprendimento e AI entro tre anni:
Dati: GoDataDriven / Grafico: ZDNet
AI è sicuramente all’ordine del giorno, ma è chiaramente primi giorni: poco più di uno su cinque Big Data intervistati (il 21,5%) non aveva alcun piano in questo settore.
Un esperto vista
Sumit Nijhawan, CEO e presidente Infogix
Immagine: Infogix
Per avere una panoramica dello stato dei big data, con cui abbiamo parlato Sumit Nijhawan, CEO e presidente integrità dei dati e soluzioni di governance specialist Infogix, il cui Top Ten di Trasformazione di Dati e Tendenze per il 2017, è stata tra le fonti per le previsioni analisi presentata in precedenza. Qui sono alcune delle principali osservazioni da parte dell’intervista.
“Quasi ogni cliente vado a ha una grande dati di iniziativa, e molti progetti che iniziano con un sacco di slancio, di investimento e di “passaparola”. Ma i progressi che hai fatto, per il valore che stai ricevendo fuori del loro investimento, spesso non soddisfa le aspettative iniziali,” è stato Nijhawan dichiarazione di apertura.
“Alcune cose stiamo lavorando con i nostri clienti, che riteniamo in grado di essere trasformativo, sono una combinazione di governance dei dati, la preparazione dei dati, self-service e di dati più piccolo lago di distribuzioni”, ha aggiunto.
Così si potrebbe dire che il principale collo di bottiglia nell’estrazione di approfondimenti da big data è in realtà scoprire i preziosi dati che le aziende hanno, e di renderli disponibili per l’analisi?
“Sì, la maggior parte del focus è stato quello di fornire l’ambiente di storage — Hadoop — e permettere a tutti di dump di tutto. Due cose sono mancanti: il primo, quello che è veramente il fine e l’obiettivo di ciò che si sta dumping in Hadoop? E in secondo luogo, anche se i dati sono lì, non governato, non è consultabile, non è trovabile, e non c’è in un modo che attira i consumatori per i dati e li aiuta a ottenere il valore. E ‘ molto-dipendente, richiedono molto tecnici per lavorare su di esso. Non è così che si otterrà il valore di questi investimenti.”
Questo significa che c’è uno scollamento tra il ‘business’ e — organizzazioni necessità di promuovere un ‘dati la cultura’, in modo che le unità di business saper porre le giuste domande dei dati e generare conoscenza di se stessi?
“Abbiamo certamente bisogno di più di un business-driven data cultura. Non è che i ragazzi non vogliono condividere: è solo che hanno questi strumenti e si sentono come stanno facendo un buon lavoro, ma non so davvero che cosa l’obiettivo finale è. Ecco perché, a meno che non si tratta di un business-driven iniziativa, è difficile per concretizzarsi in qualcosa di significativo.”
C’è un anello mancante in molte organizzazioni-un Chief Data Officer (CDO), che può collegare il C-suite e unità di business per il reparto IT?
“Non c’è assolutamente un anello mancante, ma non direi che si tratta solo di una persona. I dati di cultura’ appena menzionato è su persone, processi e tecnologie, insieme con i dati. È davvero la fine-to-end del processo: ecco come ho intenzione di origine i miei dati, e questo è ciò che ho intenzione di fare con i miei dati; e in questo modo ho intenzione di fornire i miei dati. End-to-end processo deve essere avviato da uno sponsor, che certamente potrebbe essere il CDO. Il problema con il Chief Data Officer di paradigma, oggi, è quasi un burocratiche posizione in molte organizzazioni: il CDO presumibilmente ha influenza, ma ha finito per diventare la persona che fornitori di andare a piantare le loro tecnologie, piuttosto che qualcuno che è lì per soddisfare gli obiettivi di business.”
Outlook
C’è un sacco di dati, e ci sarà molto di più in futuro, ma le aziende hanno ancora un sacco di lavoro da fare se sono di routine trasformare i big data in business preziose intuizioni. La creazione di un data-driven cultura e la disponibilità dei dati, gli scienziati e gli ingegneri (reclutati all’esterno o formati internamente) sarà importante nel contribuire a portare, almeno nel breve termine.
Come astronomo e l’inizio di digital forensic investigator Clifford Stoll: “Dati non è informazione, l’Informazione non è conoscenza, Conoscenza non è conoscenza, Conoscenza non è saggezza”. Quindi, dati gli scienziati e gli ingegneri saranno necessari per estrarre le informazioni e le conoscenze ampie ed eterogenee collezioni di dati e data-driven cultura a garantire che il diritto di porre delle domande, permettendo la comprensione, e forse anche di saggezza, per raggiungere le parti pertinenti dell’organizzazione.
Guardando ancora più avanti, aumento dei livelli di automazione, in particolare nell’area di preparazione dei dati — e la disponibilità di self-service, gli strumenti di analisi dei dati sarà guidato intuizioni facilmente disponibili per gli utenti non specialisti.
Insieme con i dati di governance normative dell’UE GDPR (e qualunque versione post-Brexit governo del regno UNITO implementa), questi sviluppi dovrebbero aiutare a ristabilire l’equilibrio di potere nel ‘big data società’, lontano dai giganti di internet e verso le piccole organizzazioni e individui.
Leggi di più su big data
Ricerca: big data, è alla guida di informazioni di business nel 2017 (Tech Pro Ricerca)Salesforce e IBM svelare di più l’integrazione di dati toolsMapR automatizza il tiering dei dati per l’ibrido cloudKafka ottiene SQL con KSQLTableau dettagli dei suoi piani di query in linguaggio naturale
0