AtScale 6.0 e Kinetica 6.1 annunciato; SAP ottiene GPU NVIDIA religione

0
138

Zero

Non c’è riposo per la situazione stanco. Meno di 2 settimane dopo la Strata Dati Conferenza ferita giù a New York, Tableau Conferenza 2017 prende il via oggi a Las Vegas.Il Tableau Conferenza porta con sé un altro cesto di dati, notizie di settore, l’attività intorno alla quale si spera di contribuire in qualche modo ad aiutare Las Vegas guarire.

AtScale si trasforma 6.0, ottiene Google BigQuery
La prima notizia viene da AtScale, che si trova all’incrocio di Business Intelligence (BI) e Big Data, forse anche di più con la sua nuova ha annunciato la release 6.0. AtScale costruisce virtuale (non si è concretizzata) OLAP (online analytical processing), cubetti di dati in Hadoop, un approccio che maglie bene con il front-end di strumenti di BI come Tableau che sono stati progettati per tali modelli e archivi. E ora, con la versione 6.0, AtScale sta diversificando ultimi dati Hadoop, per offrire connettività Google BigQuery.

Leggi anche: Google BigQuery va

Ho scritto su BigQuery, quando è uscito prima. A quel tempo, Google stava promuovendo come un server OLAP. Ma BigQuery funzioni molto di più come un Data Warehouse, e Google retorica è cambiato per abbinare la realtà. AtScale, nel frattempo, permette agli utenti di creare un livello semantico (OLAP schema, in altre parole) sui dati in BigQuery. Quando combinato con la società Attiva della tecnologia di Cache (spiegato molto bene in questo post del blog 6.0), AtScale accoglie collegamenti in diretta per il cloud-based BigQuery servizio da strumenti come Excel, e fornisce OLAP-league tempi di risposta delle query nel processo.

Adaptive tecnologia di Cache è principalmente definito da una combinazione di pre-calcolato aggregazioni, alcuni membri della dimensione che può essere utilizzato per popolare filtro selezionabile valori (nuova caratteristica) e un ottimizzatore di query che utilizza entrambi questi per evitare il superfluo query al back-end. In Hadoop contesto, questa velocità le cose immensamente, così da evitare la sovraesposizione al processo batch tendenze della piattaforma (che ancora esiste, anche con i moderni ottimizzazioni come Scintilla e FILATI).

Nel BigQuery contesto, le ottimizzazioni si fanno ancora più interessanti. Perché se Adaptive Cache è in grado di evitare l’inutile e ripetitivo query al database, che evita la latenza di chiamare un servizio cloud. E operazioni come tabella Pivot di Excel drill down e filtro popolazione in grado di generare un sacco di discreta query MDX per il back-end.

La potatura fuori un sacco di quelle (che AtScale dice che può essere fatto, dato l’allineamento delle query che tendono ad essere rilasciato da un gruppo di utenti interessati alla stessa data) è possibile risparmiare un sacco di tempo e riduzione dei costi. AtScale dice la sua iniziale test su BigQuery indicano che la “query costi sono stati ridotti fino a 1.000 X per ogni query.” Non ho e non può verificare questa ricerca, ma non ho dubbi sul fatto che un po ‘ di ottimizzazione con un servizio cloud come BigQuery può andare un lungo cammino. E poiché BigQuery è monetizzato basato su query di attività, l’impatto economico di AtScale di tecnologia potrebbe essere significativo.

Mentre l’aggiunta di BigQuery supportate back-end è una grande partenza da AtScale in precedenza Hadoop esclusivo approccio, sembra probabile che più fonti di dati saranno mostrati anche sul tavolato. AtScale non la pensa Hadoop è morto; lontano da esso, infatti. CEO Dave Mariani mi hanno detto di vedere Hadoop adozione continua a crescere. Ma come si fa, le persone sono sempre più comprendere che la federazione con loro più convenzionali motori di database, tra cui MPP (massively parallel processing) data warehouse, è imperativo. E AtScale vuole la sua Universale a Livello Semantico (concetto introdotto con i suoi 5.5 release) per essere il luogo in cui la federazione succede.

Il parallelismo pensa globale, può agire locale
La cosa interessante di MPP data warehouse è il modo in cui raggiungere il loro parallelismo: combinando un array di istanze di database, ciascuno su un server separato, e poi avere un nodo master che i delegati sottoquery per ciascuno di essi. Singoli server, eseguire il loro sottoquery in parallelo, ottiene il risultato si riporta il nodo principale, che unisce e le invia in una sola di nuovo al cliente. Questo divide-and-conquer approccio è quello che spinge Hadoop e Scintilla, troppo. In effetti l’idea di fare Grandi elaborazione Dati fattibile è basato sull’idea di dividere il lavoro in abbastanza (più piccolo) pezzi in cui l’elaborazione parallela può assumere sempre crescente.

Ma perché non tutto ciò che divide-and-conquer avviene all’interno dei singoli server? Si scopre che la Gpu (unità di elaborazione grafica) in grado di ospitare tale scenario. Essi prendere la nozione di elaborazione vettoriale su una CPU (dove più elementi di dati sono trattati in una volta, piuttosto che uno alla volta) e progetto di scala maggiore. Ecco perché, oltre alla elaborazione grafica di per sé, Gpu funzionano così bene per l’IA e il Deep Learning. I modelli di quest’ultimo tipo di strati di reti neurali, e che la stratificazione significa che la formazione i modelli con gran beneficio dall’avere la parallelizzazione che Gpu permettersi.

Kinetica rende MPP andare GPU
Perché non possiamo portare questa idea di tornare a casa per il database? Possiamo, a quanto pare, e questo è ciò che la gente a Kinetica hanno fatto. Hanno creato lo stesso tipo di memoria, columnstore database che il MPP ragazzi, ma invece di mettere in parallelo solo su server multipli, che all’interno di ogni nodo, oltre architetture GPU. La società ha fatto annunci a Strati, che ho ricoperto, tra cui un modo per utilizzare il prodotto come un massiccio di migliorare le prestazioni della cache per il Tableau.

Leggi anche: gli Strati NYC 2017 per Hadoop: Andare a saltare in un lago di dati

Non è una sorpresa, quindi, che la società è fare annunci a Tableau Conferenza, oltre a Strati. In particolare, la società annuncia il suo nuovo 6.1 rilascio. 6.1 porta con se alcuni miglioramenti:

Il back-end rendering di queste visualizzazioni (dati su mappe), già unico per un database, è ora in fase di miglioramento, attraverso l’adozione di OpenGL: e valorizzazione delle GPU per il suo uso originale caso: la grafica.Parlando di dati geospaziali, Kinetica è di aggiornare il suo prodotto in modo che una vasta gamma di queste funzioni sono disponibili presso il dialetto SQL, e non solo attraverso arcano chiamate API. Funzioni come la casa più vicina per il calcolo e il calcolo dei punti all’interno di una regione, 80 geospaziali operazioni in tutto-può ora essere eseguito da SQL strato, utilizzando la sintassi già definito per questi carichi di lavoro in PostreSQL del PostGIS extender.Un certo numero di nuove funzionalità enterprise sono stati aggiunti al prodotto. Questi includono la compressione e il dizionario di codifica; avanzate di monitoraggio; amministrazione semplificata e dynamic provisioning delle risorse; e le nuove funzioni di sicurezza come la mappatura dei ruoli e di un registro di controllo di impianto, in modo da poter guardare indietro e capire che ha condotto un’operazione, e quando.

kinetica-screenshot.png

Un Kinetica server di rendering con accelerazione GPU, geospaziali visualizzazione.

Credito: Kinetica

Kinetica, inoltre, ha notevolmente semplificato distribuzione cloud. Si è semplificata di distribuzione di Amazon Web Services e Microsoft Azure…abbastanza semplice, a quanto pare, che l’azienda chiama “One-Click Cloud”. La licenza è sempre più facile, troppo, in quanto gli utenti hanno la possibilità di portare una propria licenza, o semplicemente il pagamento di un utilizzo base/misurato base per il lavoro che fanno sul cloud-hosted istanze di Kinetica.

Unire il tutto con il fatto che un nuovo di 90 giorni per l’edizione di prova del prodotto sarà disponibile dal 31 ottobre, con l’Azzurro e AWS 6.1 versioni di se stessi, e la curiosità su questo interessante prodotto può essere affrontato molto ragionevoli spese (è possibile eseguire convenzionali Cpu troppo).

Leonardo piace Gpu troppo
Nel mio roll-up di notizie da Strata, ho detto che Kinetica gira su Gpu NVIDIA. Bene, oggi è tornata di notizie non Tableau articolo correlato: le Gpu NVIDIA sono ora trovare la loro strada in SAP data center e, per estensione, i propri servizi cloud. L’impatto immediato di questo è che il SAP dice la sua Macchina Leonardo di Apprendimento Portafoglio è la prima Impresa che offre di usare NVIDIA Volta AI Platform.

Leonardo di Machine Learning Foundation servizi, tra cui SAP Impatto di Marca, che analizza automaticamente i grandi volumi di video per rilevare i loghi di brand di immagini in movimento (e, per estensione, il ROI sul product placement) e SAP Servizio Biglietteria Intelligence, che classifica i ticket di servizio e offre una risoluzione raccomandazioni per il centro servizi agent-funzionalità di NVIDIA Volta addestrati modelli dietro le quinte. Se si considera SAP radici di Enterprise Resource Planning (ERP), e la sua applicazione aziendale di orientamento, la partnership con NVIDIA dovrebbe andare un lungo cammino verso l’integrazione di AI nel line-of-business carichi di lavoro.

Non è tutto, gente
Vorrei poter dire che la dati e analisi notizie ciclo di stabilirsi, ma so che non è il caso. Questa settimana e oltre, c’è più roba in cantiere. Viviamo in un bel mondo turbolento in questo momento, sia in termini di politica e di protezione dei dati. Nonostante la relativa instabilità che avrebbe suggerito, i dati mondo sta andando gangbusters comunque. Perché l’unico modo attraverso l’entropia è la padronanza di dati, informazioni e tendenze — e il controllo e la capacità predittiva che viene con esso.

0