Archiviazione dati: Tutto quello che devi sapere su tecnologie emergenti

0
195

Quadri faccia una raffica costante di “nuovo e migliorato” rivendicazioni del prodotto. Ma memorizzazione dei dati è cambiata di più negli ultimi 10 anni che nei precedenti 25 anni, e il tasso di cambiamento è in fase di accelerazione: vedremo più cambiare nel prossimo decennio, che non abbiamo mai visto prima nella memorizzazione dei dati del computer. Ecco cosa arriverà che avete bisogno di sapere.

La comprensione di ciò che è in arrivo — nei prossimi mesi, sarà la posizione di esperto di tecnologia leader per essere proattivi, valore aggiunto agenti di cambiamento. Le innovazioni sono reali e fondamentali, che interessano come i data center sono progettati e gestiti, nonché consentendo incredibile di nuove applicazioni.

Panoramica generale

Vent’anni fa c’erano gli array di storage — alcune piccole, alcune di grandi dimensioni-e nastro per l’archiviazione. Ora, la conservazione del paesaggio è quanto di più vario, che vanno da unità Ssd PCIe con la performance del 2010 da un milione di dollari array di archiviazione, a scala di storage in grado di memorizzare un centinaio di petabyte — un centinaio di milioni di gigabyte — a basso costo commodity server e automatizzato sufficiente che due persone possono gestire l’intero array.

Opzioni di archiviazione sono in espansione, come lo sono i requisiti di applicazione e di I/O profili. Che cosa ha funzionato un decennio fa-che cosa abbiamo fatto di lavorare-è sempre meno adeguata, ora. Ecco una panoramica delle principali applicazioni e tecnologie che stanno cambiando il modo specificato e utilizzare un dispositivo di archiviazione.

Il driver chiave

Mentre la tecnologia offre nuove soluzioni, driver chiave-perché abbiamo bisogno di nuove soluzioni, è la crescita dei dati.

Video-consumo e di sorveglianza-è il principale componente della capacità globale di crescita. Ma l’impresa, la raccolta e l’analisi di web-dati generati — il comportamento dei clienti, ad efficacia, A/B test, mappe di calore, analisi semantica, e di più-la generazione di dati che deve essere valutato per il suo valore economico.

Trend-industrie pesanti, quali il cibo, la moda, l’intrattenimento e il social media, che hanno bisogno di mantenere la loro virtuale dito sul polso di cambiamento, deve raccogliere e analizzare le masse di streaming di dati di serie temporali di capire e di prevedere dove i loro mercati.

Maggiore granularità e la specificità è anche un crescente volume di dati e la velocità. Grande distribuzione alimentare per monitorare le loro catene di approvvigionamento, fino al singolo pacchetto di organico cavolo-e anche tenere traccia di chi ha comprato il pacchetto — in caso di ritiro. Come i costi di storage continua a scendere il 25% e il 40% l’anno, sempre più applicazioni diventerà economica, aumentando ulteriormente la domanda per l’archiviazione.

Lo Streaming di dati, video, intelligenza artificiale, machine learning (ML), IoT, e più auto privato archivi di dati in exabyte gamma nel corso del prossimo decennio. Il problema fondamentale con l’AI è che per aumentare “l’intelligenza” di AI, bisogni esponenzialmente maggiore quantità di dati di training — e l’archiviazione che va con esso.

Le aziende che sfruttano le opportunità dei big data e analytics prosperare. Gli altri si perdono per strada.

Considerare questa guida esecutiva di un sistema di preallarme per la dirompente tendenze e tecnologie che possono aiutare a inaugurare la vostra azienda nel lungo termine digitale di successo. Il focus è su ciò che le tecnologie consentono, quindi, si può scorrere l’elenco per vedere che capacità è più interessante per voi.

Deve leggere

Che cosa è macchina di apprendimento? Tutto il necessario per knowWhat è l’IoT? Tutto quello che devi sapere su l’Internet delle Cose giuste nowWhat AI? Tutto quello che devi sapere su Artificiale IntelligenceEnterprise AI e machine learning: il Confronto tra le aziende e le applicazioni

Gestione dell’archiviazione

Vent’anni fa, silos di stoccaggio sono stati la rovina di archiviazione e amministratori di database. Le applicazioni sono state saldate per il sistema operativo del server e array di storage correvano su, aggiornamenti significato nuovo e costoso hardware e rischioso migrazioni, e la necessità di gestire i picchi di utilizzo significava l’infrastruttura è stata cronicamente oltre configurato.

Virtualizzazione del sistema operativo, contenitori, cloud integration e scale-out architetture (altro su quelli più tardi) che li supportano può fare di noi a lungo per i giorni in cui si poteva camminare in un datacenter e toccare i nostri bagagli. Ora, con il cloud gateway integrato in enterprise storage array, e gli sviluppatori di filatura di centinaia di terabyte per il test del software, è più difficile che mai a sapere chi sta utilizzando ciò che la memoria, o perché. E ancora di più per sapere se è costo-efficace, soprattutto in considerazione Bizantino larghezza di banda prezzi progettato per mantenere i vostri dati in ostaggio.

Ciò che è necessario, e finirà per apparire, è cross-vendor di storage di monitoraggio e analisi di applicazioni che utilizzano la macchina di imparare a capire e consigliare gli amministratori a ottimizzare lo spazio di archiviazione totale di infrastrutture per le prestazioni e i costi. Queste applicazioni sapere cosa varie opzioni di archiviazione dei costi (compresi i costi di larghezza di banda), come se la cavano, e la loro disponibilità/affidabilità, e pesare che contro i quali è necessario che le applicazioni e il loro valore economico per l’impresa. Questo è un alto ordine, quindi che dire adesso?

Ora, siamo più o meno dove eravamo 20 anni fa, la gestione di diversi stack di archiviazione. Fino AI può aiutare, dobbiamo contare su una miscela ad hoc di fogli di calcolo, euristica, e l’intelligenza umana, per rendere al meglio il nostro ricco di opzioni di archiviazione.

Grande memoria del server

Intel, tra gli altri, sarà l’introduzione di non-volatile random access memories (NVRAM) di quest’anno. Questi ricordi mantenere i loro dati-senza batterie-attraverso i cicli di alimentazione.

Perché NVRAM si trova sul server del bus di memoria, è ordini di grandezza più veloce rispetto ai dischi o unità Ssd. Ma a differenza di Ssd, la NVRAM può essere letta come byte di memoria, o 4K blocchi di archiviazione. Questo dà agli architetti di sistema di flessibilità nella configurazione di sistemi per la massima compatibilità e prestazioni.

Un caso di uso comune vedrà la NVRAM grande uso di memoria del server. Oggi, l’ultima Xeon SP (Skylake) server in grado di supportare fino a 1,5 TB di memoria per il processore, ma il 12 128 GB Dimm necessaria per ottenere che sono costosi. Invece, Intel Optane NVRAM Dimm sono al prezzo di $625 a 128GB — e utilizzare molta meno energia.

Un dual-socket Xeon SP server in grado di supportare 3 tb di memoria. A prezzi accessibili con Optane Dimm, database di grandi dimensioni può essere eseguito in memoria, migliorando notevolmente le prestazioni.

Intel non è l’unico concorrente nella NVRAM spazio. Nantero inizio di spedizione NVRAM Dimm l’anno prossimo, l’utilizzo di una tecnologia che è ancora più veloce rispetto Optane. La linea di fondo è che NVDIMMs sono qui, oggi, e di offrire reali vantaggi rispetto al DRAM Dimm — e più sono in arrivo.

Deve leggere

Intel mette Optane di memoria e di storage NAND insieme su H10 SSDFirst Optane Performance test mostrano benefici e limiti di Intel NVDIMMsNVRAM ritmo accelera, con Nantero investmentBuilding su grande scala e di condivisione di infrastrutture flash

Di storage Scale-out

Tutti i fornitori di cloud utilizzare storage altamente scalabile per memorizzare exabyte di dati. Che la tecnologia sta facendo la sua strada per l’impresa, sia in termini di hardware (Nutanix) e software (Quobyte), tra gli altri.

La più grande differenza tra la scala fuori architetture, che sono in genere di cluster shared-nothing in esecuzione su hardware commodity — è come proteggere i dati. Attiva sistemi di I/O di solito si basano sulla tripla di replica, mentre i meno attivi sistemi fanno affidamento sulla tecnologia avanzata di cancellazione codici — maggiormente su coloro che nella prossima sezione — per fornire livelli ancora più elevati di protezione dei dati.

Il punto importante è che i dati sono centri di creare infrastrutture che sono competitivi con i fornitori di soluzioni cloud, e di offrire una latenza più bassa e più controllo. La chiave è capire che cosa la vostra base di requisiti del carico di lavoro, e relegare all’utilizzo del cloud transitoria o chiodare i carichi di lavoro.

Deve leggere

Top fornitori di cloud 2019: AWS, Microsoft Azure, il Cloud di Google, IBM rende ibrido moveHPE, Nutanix partner cloud ibrido come un servizio offeringAmazon AWS: Completa guida di business per il più grande fornitore mondiale di cloud servicesCloud di archiviazione: Riducendo al minimo i costi di riparazione

Altamente resistente archiviazione

La cancellazione codici sono stati utilizzati per decenni per aumentare la densità di dati nell’unità disco e, nel modulo di RAID — array di storage. Ma all’avanguardia per la cancellazione codici di consentire agli utenti di comporre il livello di protezione e sicurezza dei dati loro desiderio, con un minimo di spesa.

RAID 5, per esempio, protegge solo da un errore di unità. Se un disco si guasta, e c’è un errore irreversibile di errore di lettura (URE) in una delle rimanenti unità, l’intero recupero può fallire.

Con l’avanzata di cancellazione codici (AEC), 10 (o più) unità di striscia può essere configurato per sopravvivere quattro errori del disco, quindi, anche se tre unità esito negativo, un URE non interrompere il processo di recupero. Per ultra-alta protezione dei dati, AEC può essere configurato per essere eseguito su più aree geografiche, in modo che anche la perdita di uno o più centri dati non perdere i dati.

Confronta questo per il RAID 5, che protegge solo contro un fallimento. RAID 6, che protegge contro due fallimenti, richiede più di parità, si sviluppa su due in auto la pena di capacità.

Con AEC la capacità di sovraccarico è di solito di circa il 40%, ma la protezione contro come molti fallimenti — disk, server, anche i dati del centro di interruzioni — come si sceglie, se configurato correttamente. Il quaranta per cento può sembrare un prezzo alto, ma se hai mai perso i dati di un array RAID, è un affare.

L’aspetto negativo di AEC è che la matematica necessaria per creare la necessaria ridondanza può essere intensivo del processore: non È per l’elaborazione delle transazioni. Tuttavia, il miglioramento AEC nei prossimi anni diminuirà di calcolo dei requisiti, portando ad un miglioramento della performance di molte applicazioni.

Deve leggere

Costruzione di milioni di euro l’anno diskThe RAID5 delusionGoogle aggiunge Elastifile cloud arsenalThe limiti di RAID: Disponibilità vs durata in archivio

La sicurezza dei dati

La sicurezza dei dati, relative a disponibilità, ma focalizzata sulla conservazione dei dati finiscano nelle mani sbagliate, subirà cambiamenti radicali nei prossimi anni. Con l’avvento dell’Europa in Generale Norme sulla Protezione dei Dati (GDPR) l’anno scorso, la posta in gioco per il maltrattamento dei cittadini Europei dati è drasticamente aumentato. Crittografia a riposo e in volo è richiesto. Le violazioni di dati devono essere segnalati. Le multe possono essere enormi.

Questo comporterà l’adozione generale di difesa in profondità, strategie, una risposta necessaria alle realtà del mobile computing e l’IoT: ci sono troppi punti di ingresso contare su una unica linea di difesa.

Macchina di apprendimento sarà, infine, gioca un ruolo chiave, ma il problema è l’enorme quantità di dati necessari per istruire il sistema. Che richiede alle organizzazioni di condividere la minaccia dei dati utilizzando i protocolli che consentono l’automazione di minaccia di comunicazione e di miglioramento.

Deve leggere

La sicurezza dei dati è una questione importante nella GDPR complianceWhat è GDPR? Tutto quello che devi sapere sulle nuove norme di protezione dei dati

Processori neurali

Se l’organizzazione utilizza o intende utilizzare, la macchina di apprendimento in modo significativo, è necessario acquisire familiarità con processori neurali. Processori neurali sono massicciamente parallelo logica aritmetica unità ottimizzata per la matematica che di apprendimento automatico di modelli richiedono.

Processori neurali sono sempre più comuni. C’è uno in Apple Watch, e tutti i fornitori di cloud hanno creato i loro propri disegni. Google TensorFlow acceleratore, per esempio, è in grado di 90 trilioni di operazioni al secondo. Si aspettano molto di versioni più veloce nel prossimo futuro.

Così che cosa processori neurali domanda di archiviazione? Larghezza di banda.

In applicazioni in tempo reale, come ad esempio nel campo della robotica, veicoli autonomi, e la sicurezza online, il processore neurale ha bisogno di essere alimentato i dati il più rapidamente possibile, in modo che la larghezza di banda è importante. Come convolutional reti neurali di solito hanno più livelli, la maggior parte dei risultati di calcolo sono passato per il processore neurale, non lo storage esterno. Quindi i processori non hanno bisogno di cache L3. Il focus è sull’alimentazione dei dati con la minore latenza possibile, in modo che la richiesta di per la matematica può essere completato al più presto.

Deve leggere

Enterprise AI e machine learning: il Confronto tra le aziende e applicationsFacebook del Yann LeCun riflette il fascino senza tempo di convolutionsChina AI scienziati insegnare una rete neurale di treno stesso

Rack scale design

Rack scale design (RSD) è un concetto che Intel ha promosso per anni, e i pezzi si sono riuniti nell’ultimo anno, con ulteriori progressi venuta quest’anno. Essenzialmente, RSD è una risposta alle differenti aliquote di innovazioni tecnologiche nel Cpu, storage, reti e Gpu.

La RSD concetto è semplice. Prendere i singoli rack della CPU, memoria, storage e Gpu, collegare il tutto con una elevata larghezza di banda e bassa latenza di interconnessione, e, con il software, configurare il backup dei server virtuali con qualsiasi combinazione di calcolare, di memoria e di archiviazione di una particolare applicazione richiede. Pensare di RSD come altamente configurabile cloud privato.

HP Sinergia di sistema è uno implementazione del concetto, basato, ovviamente, su hardware HP. Liqid Inc. offre una versione del software che supporta hardware e più tessuti. Aspettiamo gli altri per entrare nel mercato.

Con l’avvento di PCIe v4, e il relativo aggiornamento di NVMe (NVMe possibile eseguire su PCIe) e di aumentare il numero di corsie PCIe supporto Cpu, PCIe interconnessione, infine, ha una larghezza di banda sufficiente per gestire le applicazioni più esigenti. Con la possibilità di aggiornare i componenti come la loro tecnologia migliora, senza spese per l’acquisto di nuovi tutto il resto-CIOs sarà in grado di esercitare molto di più un controllo granulare sulle infrastrutture critiche.

Deve leggere

Le Tecnologie Dell dice che sta preparando i clienti per 5G e AI con nuovi portfolioHow hyperscale dati dei centri di rimodellamento del tutto

Archiviazione di lavorazione a base di

Con la rapida crescita dei volumi di dati a bordo e nei centri di elaborazione dati, è sempre più difficile per spostare i dati processori. Invece, il trattamento è in movimento per l’archiviazione.

Ci sono due idee diverse coperto sotto il nome di archiviazione intelligente. A bordo, i dati di pre-elaborazione e riduzione, magari utilizzando la macchina di apprendimento, riduce i requisiti di larghezza di banda per i centri dati. In grandi applicazioni di dati, la condivisione di una piscina di stoccaggio e/o di memoria consente, come molti processori come la necessità di condividere i dati necessari per il raggiungimento di prestazioni richieste.

Questi concetti sono attualmente etichetta di archiviazione intelligente da HPE, Dell/EMC, e NGD Sistemi. Va al di là delle ottimizzazioni costruito in array di storage controller di gestire i problemi con la latenza del disco o modelli di accesso. Chiamata di archiviazione intelligenza v2.

Considerare un petabyte rack di rapida, densa, di una memoria non volatile, collegato a decine di potenti Cpu nel prossimo rack. Con una corretta sincronizzazione e a grana fine, di chiusura di migliaia di macchine virtuali possono operare su una massiccia raccolta di dati, senza muovere centinaia di terabyte attraverso una rete.

Con l’avvento di veloce e a buon mercato processori neurali, e una sufficiente corpus per l’apprendimento automatico, storage intelligenti e possono essere addestrati per essere in gran parte auto-gestione. Oltre che un’intelligente pool di dati potrebbe. Ad esempio, utilizzare ML per rilevare condizioni di gara basata su modelli di accesso e di chiusura attività.

Deve leggere

Puro Storage, Nvidia, Cisco lanciare AI hyperscale systemsNew di archiviazione dei dati e soluzioni di protezione presentato presso le Tecnologie Dell WorldDell EMC rafforza la memoria flash lineup

Conclusione

L’era del data-centric computing è qui. Con oltre 4,5 miliardi di computer in uso — la maggior parte di loro mobile-e la crescita dell’internet degli Oggetti ancora in futuro, la tecnologia e la governance dei dati sarà una priorità per economico e le ragioni giuridiche.

I dati sono sempre più un arma competitiva. Correttamente conservato, anche i vecchi dati in grado di offrire valore grazie a nuovi strumenti di analisi. Fortunatamente, i dati di archiviazione è più conveniente che mai, una tendenza che continuerà per il prossimo futuro.

Storie correlate:

Esecutivo di guida per il futuro dell’impresa di stoccaggio (ebook gratuito) TechRepublicIl più importante impianto di stoccaggio a freddo salvaguarda il futuro del cibo TechRepublicCome il cloud save — e il cambiamento-disk storage Flash: Un foglietto TechRepublicserver, Storage e di più: Abbiamo trovato 24 servizi cloud per il tuo business Enterprise AI 2019: che Cosa è necessario sapere

Argomenti Correlati:

Settore Tech

Hardware

Recensioni

Mobilità

Centri Dati

Cloud