I Big Data 2019: il Cloud ridefinisce il concetto di database e di Apprendimento della Macchina esegue

0
84

Zero

Nelle previsioni di gioco, è il momento per noi di bat clean-up, una volta di più. In seguito alla Grande su Dati fratello Andrew Brust roundup di AI relativi stime da una sezione trasversale di dirigenti industria, ora è il nostro turno. Ci concentreremo soprattutto su che cosa tutto questo significa per il database, una tecnologia che, dopo Y2K è stato pensato per essere l’immissione di stato completato.

Nel 2019, l’IA e il cloud computing, la grande interferenti.

Dipingiamo l’immagine grande di prima. All’Ovulo, abbiamo a lungo previsione che entro il 2019, la metà di tutti i nuovi carichi di lavoro di Dati nel cloud. Secondo i nostri dati più recenti, che scenario è già cuscinetto, con i nostri sondaggi che mostrano circa il 45% di intervistati che indicano l’esecuzione di almeno alcune Grandi carichi di lavoro di Dati nel cloud.

Il cloud impatto sulle banche dati è che si tratta di ridefinire le linee architettoniche di base di ipotesi su come progettare e gestire i dati. Locale in tutte le infilare l’ago nel dimensionamento sufficiente capacità di essere pienamente utilizzata, ma non troppo la capacità di attivare il software di audit o di risultato in eccesso di licenza oneri. E per i Big Data, è stato quello di portare calcolare i dati perché l’overhead di rete di spostamento di tutti coloro terabyte non è stato considerato particolarmente razionale.

Inserisci il cloud, beni, infrastrutture, riduzione di archiviazione, più veloce interconnessioni di rete, e la maggior parte di tutti, praticamente senza limiti di scala, e per i fornitori di database, era di nuovo al tavolo da disegno, come la separazione di archiviazione da calcolare. Aggiungere un po ‘ di carburante per il fuoco: la nostra convinzione che il modo migliore per realizzare valore dal database cloud distribuzione, attraverso la gestione di Database-as-a-Service (DBaaS) in cui le patch, aggiornamenti, backup, gli errori, e di provisioning e gestiti dal fornitore di servizi cloud, non l’amministratore. E che ci pone la nostra prima stima, che tra l’altro, sembra essere buzzword-compatibile.

Auto-guida di database utilizzando ML possono proliferare

Cloud provider di database si applica machine learning (ML) per rendere la loro DBaaS offerte in esecuzione automatica. Poco più di un anno fa, Oracle preso a calci la porta aperta, prima con Autonoma di Data Warehouse 18c, seguita, dopo sei mesi di Transazione Autonoma Database 18c. Non provare questo a casa, Oracle offre solo il database autonomo nel suo cloud pubblico, dove, non il DBA, controlla l’ambiente.

L’applicazione di ML per il funzionamento del database è un gioco da ragazzi per diversi motivi. Primo, le operazioni di database di generare enormi quantità di dati di log per alimentare i modelli. In secondo luogo, il funzionamento del database (in particolare nel managed cloud service) è una ben delimitata problema che resiste alla deriva o scope creep. Infine, la noia che ML automatizza, ad esempio come configurare un database di diversi modelli di carico, o come ottimizzare le query, è un lavoro che, per il DBA, non aggiunge valore.

Non sorprendentemente, l’avvento di autonoma dei database creato notevoli timori tra gli amministratori di database per la sicurezza dei loro posti di lavoro. Come abbiamo osservato nella nostra Oracle OpenWorld post-mortem, la linea più lunga che abbiamo visto per eventuali sottogruppi di lavoro è stato quello per DBA vs Autonoma sessione di Database. Come abbiamo notato in quel pezzo, a meno che i loro datori di lavoro sono stupidi, si avrà ancora dei lavori – è ancora bisogno di amministratori di database di prendere decisioni strategiche su ciò che il database di copertura, progettare lo schema e set (e di essere responsabile per le politiche relative all’esecuzione e protezione del database.

Ci aspettiamo che nel 2019 che più cloud provider di database seguirà Oracle. Impiegando ML per eseguire il database diventerà una casella di controllo standard elemento per qualsiasi DBaaS offerta; ci aspettiamo anche un paio di fornitori di database per differenziarsi da Oracle e applicare alcuni di questi concetti on-premise.

Serverless diventa casella di controllo,

Ci aspettiamo anche che senza server computing, che è stato introdotto con AWS Lambda per semplificare lo sviluppo di applicazioni, eliminando la necessità di eseguire il provisioning dei server con autoscaling, sarà sempre più diffusa con il cloud DBaaS servizi. In questo scenario, gli amministratori di database, specificare le soglie minima e massima e quindi il database autoscales. Gli esempi includono Amazon DynamoDB, dove serverless è il fulcro del design, e Amazon Aurora, dove serverless è stato recentemente introdotto come opzione per le applicazioni dove i picchi sono rari o di difficile previsione. Google Cloud Firestore anche senza server; nel corso dell’anno passato, MongoDB ha introdotto il suo Punto serverless offerta per il suo servizio cloud Atlas.

Serverless non è per tutti i casi di utilizzo; per esempio, se i tuoi carichi sono prevedibili o costante, sarà più economico di capacità di riserva. Tuttavia, la domanda da parte degli sviluppatori renderanno serverless un’opzione per tutti i cloud database operazionali nel 2019.

Basi di dati distribuite: Scrive ottenere rispetto

Un’altra innovazione apportata fattibile con il cloud è il database distribuito. Quest’anno, vedremo il database distribuito fare scrive cittadini di prima classe alla pari con la legge.

Andiamo a spiegare. Basi di dati distribuite, non iniziare con il cloud, i primi esempi inclusi Clustrix (recentemente acquisita da MariaDB), Aerospike, e NuoDB relazionale lato, e NoSQL sostenitori come MongoDB, Couchbase, e Apache Cassandra. Di questi giocatori, MongoDB è stato il big break-out, in gran parte a causa della sua sviluppatore amicizia che ha reso la sua diffusione virale, anche se Cassandra ha segnato alcuni grandi nomi Internet come Netflix.

Ma il cloud fornito alcuni vantaggi per le basi di dati distribuite. Primo, ha eliminato la necessità per le organizzazioni di impostare i propri centri dati e ampia area di backbone. In secondo luogo, molti di questi dati, quali registri, cataloghi di prodotti, IoT dati, e così via, già vissuto nel cloud. Ultimo, ma non meno importante, il cloud aggiunto alcune sleale architettonico vantaggi: i fornitori di cloud potrebbe nativamente ingegnere in automatico replica, smart storage, e automatizzati di scala nelle loro piattaforme.

Così, che cosa significa tutto questo ha a che fare con la scrittura e la lettura di prestazioni? Più basi di dati distribuite hanno operato con master/slave architetture centralizzata, maestro di nodi per commettere scrive o aggiornamenti, circondato da repliche di sola lettura che potrebbe essere distribuiti geograficamente. Che ha fatto legge, che potrebbe essere eseguita su qualsiasi replica locale, molto più veloce di quanto scrive.

Stiamo già assistendo a nuovi approcci, come il multi-master, che permettono di nodi locali per essere dichiarato scrivere maestri per specifiche operazioni, o il consenso degli algoritmi, che i sondaggi di nodi per designare la scrittura master, per superare l’scrivere i colli di bottiglia a livello globale basi di dati distribuite. Amazon Aurora e DynamoDB, Google Cloud Chiave; Microsoft Azure Cosmo DB; e Scarafaggi DB già in grado di supportare queste funzionalità (o li offrono in beta), ma con l’eccezione di Cloud Chiave ed il Cosmo DB, queste funzionalità sono supportate solo all’interno di una regione, non in tutte le regioni. Nel 2019, ci aspettiamo che il multi-sostegno della regione crescerà più comuni.

Un relativo sviluppo, causato dalle normative in materia di privacy come GDPR e locali mandati applicate da molte nazioni che richiedono dati per rimanere all’interno del paese di origine sarà il ruolo di sharding il database locale o regionale maestri. Questa pratica diventerà più diffuso.

George Anadiotis viene confermata: Le stelle allineare graph database

OK, probabilmente avete sentito parlare più di riempimento dal mio Grande su Dati fratello George Anadiotis, che ha eseguito yeoman dovere di educare il mercato grafico database. Egli ha fatto l’immersione profonda conoscenza grafici, ci ha introdotto nuove grafico database di giocatori, illuminati sul grafico linguaggi di query, e si avventurò la folle idea che i grafici potrebbe rappresentare il web come un database.

Come Anadiotis messo circa 18 mesi fa, il “Grafico della tecnologia è da una frangia di dominio per andare mainstream.” Bene, nei primi mesi del 2017, che la dichiarazione è stata un po ‘ prematura.

I problemi aziendali che il grafico database di indirizzo sono abbastanza semplici. Decifrare gli schemi di influenza sui social network in modo marchi leader in grado di identificare e coltivare i leader di opinione; la mappatura e l’ottimizzazione della complessità delle operazioni della catena di fornitura; o comprendere la propagazione delle minacce informatiche, questi sono solo alcuni esempi di problemi del mondo reale, che tutti hanno una cosa in comune: sono caratterizzati da molti-a-molti rapporti che non sono facilmente rappresentato dal database relazionali. La sfida è che, come i database, i grafici sono sconosciuti. E non è mancato il vantaggio di decenni di costruzione di conoscenza dello schema relazionale, la semplicità di valore-chiave delle strutture, o l’attuale base di conoscenze dei documenti JSON che è venuto da JavaScript comunità. E fino a poco tempo fa, grafico mancava il consenso norme contro le quali una massa critica di competenze di base potrebbe sviluppare.

Che cosa è cambiato rispetto all’anno passato è crescente accettazione di standard de facto, come Apache TinkerPop quadro e associati Gremlin linguaggio di query, che prevede il raggiungimento di un obiettivo comune per gli sviluppatori. E stiamo vedendo la concorrenza da parte di Neo4J e TigerGraph che hanno introdotto loro varianti che sono più di tipo SQL. E stiamo vedendo il cloud giganti di entrare in campo, con Amazon introduzione di Nettuno, mentre Microsoft Azure Cosmo DB include grafico di una sua famiglia di modelli di dati. Ma la necessità è la madre dell’invenzione, nel 2019, ci aspettiamo che il Cliente A 360, applicazioni IoT, e cybersecurity essere i driver della domanda di graph database, che sono ora più accessibile che mai.

Argomenti Correlati:

Cloud

La Trasformazione Digitale

Robotica

Internet delle Cose

L’innovazione

Enterprise Software

0