Zero
Bollente rane. Questo è ciò che tutti siamo veramente. Abbiamo deciso di restare mettiamo nel nostro piatto, mentre la temperatura è in aumento. Non drasticamente, ma costantemente. A poco a poco, non saltare all’impazzata, in modo che possiamo essere allarmato, ma inesorabilmente in aumento. Questa ben nota metafora può essere applicata per un certo numero di cose, ma qui l’occasione è la classica di fine anno, nuovo anno, le previsioni di stravaganza.
Anche: MemSQL 6.7 porta di connessione tier e un miglioramento delle prestazioni: le Operazioni per niente, e più veloce query gratis
In un primo momento, che affondano in un costante afflusso di nuovi sviluppi, solo un paio di cose è venuto in mente come il più sorprendente di il 2018. Dopo approfondita riflessione, tuttavia, si scopre 2018 è stato davvero un anno, dopo aver fissato le basi per gli anni a venire. Ecco la prova.
Dai big data flessibile, dati in tempo reale
O solo dati, davvero. Il “big dati” moniker aveva fatto il suo tempo, e il suo scopo. È stato coniato in un momento in cui il volume di dati, varietà, velocità, e la veridicità stava esplodendo. Esso ha contribuito a catturare e trasmettere il significato di queste proprietà di dati su larga scala. E ‘ servito come un catch-all termine per quello che era allora una nuova generazione di soluzioni per l’archiviazione e l’elaborazione dei dati che si staccò dalla rocca di database relazionali.
Anche: ScyllaDB raggiunge Cassandra parità di funzionalità, aggiunge HTAP, cloud, e Kubernetes supporto
Da ora, NoSQL, Hadoop, database e cloud e storage sono comuni. I compromessi si deve fare quando progettazione e di gestione di dati distribuiti e sistemi, ben catturato in teoremi denominato CAP e la BASE sono sempre più ben capito, tra le fila delle persone che lavorano con tali sistemi.
Ormai, è un dato di fatto: i Dati da tutti i tipi di fonti è generato rapidamente, e deve essere memorizzate ed elaborate in scala, on premise e nel cloud, e, sempre di più, in tempo reale. È importante fare questo per una serie di motivi, e ci sono molte opzioni. Quindi, qual è il punto di usando anche i “big data”? Vediamo questa causa vinto e passa avanti.

Dati è grande, questo è un dato di fatto. Ora è necessario essere flessibili. (immagine: Melpomenem, Getty Images/iStockphoto)
Una regola empirica per sistemi di dati è che hanno bisogno di 10 anni per raggiungere la maturità. NoSQL campioni come Apache Cassandra e MongoDB stanno colpendo i 10 anni del marchio stesso; Hadoop è ben oltre quel punto. Molte delle caratteristiche tali soluzioni originariamente mancava, ad esempio SQL e supporto transazionale, sono ora lì. I fornitori e le fusioni sono state deposte. I protocolli sono stati adottati da parte degli operatori tradizionali e imitatori. Le comunità sono cresciuti.
Realtà e della tecnologia sottostante sono cambiati, le architetture e l’economia sta cambiando, e il bar è in movimento per tutti. La flessibilità necessaria per operare in multi-cloud e ibridi (on-premise e cloud) gli ambienti, e la capacità di lavorare con i dati in tempo reale sono sempre chiave.
Database e Hadoop i fornitori con l’aggiunta di opzioni per le loro soluzioni di operare senza problemi in molti ambienti. Fornitori di Cloud stanno muovendo in questa direzione, aggiungendo la capacità di funzionare su versioni locali delle loro soluzioni. Kubernetes promette di diventare de facto il sistema operativo per le soluzioni di dati in tutti gli ambienti. Streaming e i dati di quadri promessa di diventare de facto il gateway per i dati.
Macchina di Apprendimento October Fest, AI Bizzeffe
Uno dei più controversi mantra dei big data epoca è stata la richiesta di archiviare il tutto ora e figura fuori più tardi. In un mondo in cui lo stoccaggio è costoso, la memorizzazione dei dati deve essere meticolosamente progettato in anticipo, e le modifiche sono un dolore, questo non ha senso. Che non è necessariamente il mondo in cui viviamo oggi, ma che potrebbe segnare il colpo decisivo per questo approccio machine learning.
Anche: Manyverse e Scuttlebutt: human-centric stack di tecnologie per le applicazioni sociali
È praticamente impossibile perdere la macchina di apprendimento buzz e storie di successo là fuori. Macchina di apprendimento viene sempre più utilizzato per alimentare il tutto, dalla vendita al dettaglio e self-driving cars dello sport e del divertimento. Una cosa che tutti questi machine learning applicazioni hanno in comune è che hanno bisogno pieni di dati per addestrare i modelli utilizzati per l’alimentazione. Quelle vecchie fatture, per esempio? Possono tornare utili se si desidera che la formazione di un modello di contabilità.
IA non è tutto su di machine learning, apprendimento automatico è un tipo di quadri. Ma sono certo di aiuto, e c’è un sacco di scelta. (Immagine: metamorworks, Getty Images/iStockphoto)
L’altra cosa di cui avete bisogno, ovviamente, è una macchina di apprendimento biblioteca per aiutare a costruire i modelli. Questo è il motivo per cui ci sono così tanti quadri intorno a questi giorni, e scegliere quello giusto per le vostre esigenze non è facile. Pesi massimi come Facebook può permettersi semplicemente di costruire la loro propria. Facebook nuovo PyTorch quadro, consolidando il precedente lavoro sulla Caffe2, è stato rilasciato nel mese di ottobre, ma è ben lungi dall’essere l’unico.
MLFlow è stato rilasciato dai creatori di Apache Scintilla con un’enfasi sulla distribuzione, open source e veloce.ai uscì di stealth sperando di democratizzare il machine learning. AWS ha annunciato l’aggiornamento dei propri SageMaker biblioteca, e Google migliorato la propria offerta con AutoML, AI Hub e Kubeflow. Neuton è venuto fuori dal nulla sostenendo di essere più veloce, più compatto e meno esigenti di tutto il AWSs, Google, e Facebooks del mondo.
Per quanto possano essere importanti, questi quadri non sono ciò che di apprendimento automatico. Oltre ad avere la giusta esperienza e dati per addestrare i modelli, le infrastrutture e il processo di distribuzione deve essere posto in essere. L’aggiunta di esseri umani nel loop è una strategia che può essere utilizzato per integrare la macchina di apprendimento nelle organizzazioni. Picking il giusto linguaggio di programmazione per le vostre esigenze è fondamentale. Ma non dimenticate: Macchina di apprendimento non è uguale AI, e prende più dati e il codice per arrivarci.
Software 2.0, Calcola 2.0
L’effetto di machine learning è profonda, cambiando il paradigma di tutto, compresi il software stesso. È ufficiale: stiamo entrando il Software era 2.0. Anche se la maggior parte del software che utilizziamo oggi è vecchia moda deterministico, che potrebbe essere in procinto di cambiare. Software sta diventando sempre più cloud-nativo, data-driven, e automatizzato.
Anche: livello Piuttosto basso, piuttosto grande: Apache Kafka e Confluenti Open Source andare mainstream
Il Software, come sappiamo, è fondamentalmente un insieme di regole, processi o codificati come algoritmi. Naturalmente, nel corso del tempo la sua complessità è in aumento. Api abilitato modulare sviluppo e integrazione software, il che significa isolato pezzi di software possono essere combinati e/o riconvertiti. Questo ha aumentato il valore del software, ma a costo anche di crescente complessità, come ha fatto la traccia dipendenze e le interazioni non banale.
Ma cosa succede quando abbiamo a distribuire il software basati su approcci di apprendimento automatico è diverso. Piuttosto che codifica una serie di regole, siamo treno modelli di set di dati e rilascio in natura. Quando si verificano situazioni che non sono sufficientemente rappresentati nella formazione dei dati, i risultati possono essere imprevedibili. I modelli dovranno essere ri-formati e convalidato e dell’ingegneria del software e le operazioni devono evolversi per affrontare questa nuova realtà.
La costruzione di un software usato per essere deterministico, anche se progressivamente la cosa più complicata. Ma che sta cambiando.
Macchina di apprendimento è anche plasmare l’evoluzione dell’hardware. Per un lungo periodo di tempo, l’architettura hardware è più o meno fissa, con le Cpu di essere il loro punto focale. Che non è più il caso. Macchina di apprendimento carichi di lavoro in favore specializzata chip, che siamo soliti vedere come AI chip. Alcuni stanno già chiamando questo Calcolo 2.0. Le gpu sono l’esempio più comune di un chip speciale, ma non sono l’unico gioco in città.
Intel sta lavorando per ottenere Fpga in forma per diventare una valida opzione per l’apprendimento automatico. Google sta mettendo il suo peso dietro e personalizzate TPU chips. AWS è un aggiornamento della propria cloud e il rilascio di un chip della propria chiamata AWS Inferentia. E c’è una sfilza di start-up di lavoro sul nuovo AI chip, con il più alto profilo tra quelli, GraphCore, avendo appena raggiunto unicorno di stato e pubblicato il suo chip per selezionare i partner.
Il regolamento, la governance, la concessione di licenze
Ciò di cui le aziende fanno con i loro dati non è più qualcosa che riguarda solo un gruppo di appassionati. Dati ha il potere di interferire elezioni, concedere o negare l’accesso ai finanziamenti e l’assistenza sanitaria, fare o rompere la reputazione e la fortuna, a fare la differenza per aziende e privati. E ‘ ovvio che un qualche tipo di regolamento è necessario per qualcosa che è diventato centrale per la società.
Anche: Apache Scintilla creatori insieme a standardizzare distribuito di machine learning per la formazione, l’esecuzione e la distribuzione
L’UE è leader del settore con GDPR, entrato in vigore nel 2018. GDPR è, in effetti, un regolamento globale, per quanto riguarda chiunque attivi nell’UE, o di avere interazioni con i cittadini dell’UE. Come il primo regolamento in questo settore con conseguenze di vasta portata, GDPR è stata accolta con paura, incertezza e dubbio. Consentendo alle persone di prendere il controllo dei loro dati, GDPR forze organizzazioni per ottenere i loro dati governance destra.
Le organizzazioni devono essere in grado di rispondere a domande come dove i loro dati, come viene utilizzato, e se gli utenti sono consapevoli e hanno acconsentito a loro di dati che vengono raccolti e trattati, e per quale scopo. Per fare questo, essi devono avere il diritto di processi e metadati. Derivazione dei dati e dei diritti di accesso e le politiche sono parte di quello che definiamo sotto il termine ombrello di governance dei dati: Sapere da dove provengono i dati, ciò che è utilizzato per, quando, perché e da chi.
Regolamento come GDPR può stimolare l’innovazione nell’apprendimento automatico e di intelligenza artificiale, per farli interpretabile. (Immagine: PC Mag)
Contro-intuitivo come può sembrare, il regolamento come la GDPR può stimolare l’innovazione. Per uno, rendendo i fornitori di rispondere alla domanda del mercato, mettendo a dati di governance di una prima classe di cittadini, l’aggiunta di funzionalità a supporto. Inoltre, in macchina di apprendimento, stimolando l’accento sulla explainability. Con i quadri normativi per i domini come la finanza o la sanità, trasparente, spiegabile decisioni diventare un must-have.
Siamo solo all’inizio, per vedere l’effetto del regolamento sui dati relativi la tecnologia e business. Nel 2019 PSD2, un altro regolamento comunitario che impone che le istituzioni finanziarie ad aprire i loro dati a terzi diventerà efficace. Questo sta per avere effetti a cascata sul mercato. E non dimentichiamo il famigerato UE Direttiva sul diritto d’autore, che sta per eseguire le misure di come caricare i filtri e un link fiscale.
Deve leggere
Toyota e SoftBank stanno collaborando per portare i big data per la mobilità CNET
La top 10 dei big data framework utilizzati in azienda TechRepublic
Ultimo ma non meno importante, stiamo vedendo i dati di piattaforme di prendere atto della realtà che è il cloud, cloud e il bracconaggio, o “strip-mining”: líavanzamento di open source/open core piattaforme di cloud provider. Oltre a adattare la loro offerta per l’esecuzione in più ambienti, come i servizi gestiti, o -, i fornitori di dati, reagisce, adattando le loro licenze, troppo. E confluenti Tempi hanno fatto, ci aspettiamo di vedere di più di questo.
Gli Anni del Grafico
Chiamando il 2018, anno del grafico è stato il nostro lettore lo scorso anno. Si può chiamare bias, o lungimiranza, dal momento che abbiamo un rapporto speciale con il grafico database. In ogni modo, pare non siamo stati gli unici. Grafico database sono sempre stati i leader di categoria in termini di crescita e di interesse come catturato dal DBEngines indice a partire dal 2014.
Anche: Supponente e aperto della macchina di apprendimento: Le sfumature dell’utilizzo di Facebook è PyTorch
Molto di questo ha a che fare con AWS e Microsoft rilascia grafico database di prodotti, con AWS Nettuno andando GA nel Maggio 2018 e di entrare Azure Cosmo DB in questo vivace mercato che ha più di 30 fornitori in totale. Ovviamente, ognuno di essi ha i propri punti di forza e di debolezza, e non tutti sono adatti per tutti i casi di utilizzo.
Il ritiro dall’industria esperti di Gartner inclusa la Conoscenza di Grafici nella sua campagna pubblicitaria ciclo nel mese di agosto 2018. Se questo ha un senso per una tecnologia che è almeno 20 anni di età e che cosa tutto questo significa è un altro discorso, ma resta il fatto: il Grafico è qui per rimanere. Grafico davvero andare mainstream, con gli analisti come compagni di ZDNet collaboratore/analista di Ovum Tony Baer dando un shoutout.
Gli Anni del Grafico sono solo introduttiva
Stiamo assistendo ad artisti del calibro di Airbnb, Amazon, eBay, Google, LinkedIn, Microsoft, Uber e Zalando creazione di grafici, e migliorare i loro servizi e la loro linea di fondo come un risultato. Stiamo vedendo l’innovazione in questo settore, con la macchina di apprendimento applicato per arricchire e completare le tecniche tradizionali al web scala. Stiamo assistendo a nuovi processi di standardizzazione in corso, puntando ad aggiungere agli standard esistenti sotto l’egida del W3C.
Stiamo vedendo i fornitori alzando il loro gioco e il loro finanziamento, e grafici di essere indagato come un fondamentale metafora su cui software e hardware per una nuova era può essere costruito. Vedremo più di questo nel 2019, e noi saremo qui per tenere traccia.
Precedente e relativa copertura:
AI chip unicorno che sta per rivoluzionare tutto ha computazionale Grafico all’interno del suo Nucleo
AI è la tecnologia più dirompente della nostra vita, e AI chip sono i più dirompente infrastruttura per l’AI. Con tale provvedimento, l’impatto di ciò che Graphcore è di circa massivamente liberare nel mondo è al di là di ogni descrizione. Qui è come spingere i confini della Legge di Moore con IPUs funziona, e come si confronta oggi lo stato dell’arte sull’hardware e sul software di livello. Dovrebbe incumbent Nvidia ti preoccupare, e gli utenti di gioire?
L’aumento di Kubernetes incarna la transizione dai big data flessibile di dati
Può una piattaforma concepita per supportare l’esecuzione di effimero applicazioni con il sistema operativo di scelta per l’esecuzione di carichi di lavoro di dati multi-cloud e hybrid cloud era? Sembra, ma non siamo soli c’è ancora.
Desidera aumentare il coinvolgimento dei clienti? Investire nell’integrazione dei dati, dei metadati, la governance dei dati, dice Informatica
Che cosa fa un Hub di Dati Architettura di Riferimento hanno a che fare con il Coinvolgimento del Cliente? Molto, secondo Informatica, che vogliono completare l’Adobe, Microsoft e SAP, nel loro Dati Aperti Iniziativa. La grande domanda, tuttavia, è se questo ha le gambe.
In tempo reale di elaborazione dei dati appena più opzioni: LinkedIn versioni di Apache Samza 1.0 streaming quadro
Samza è ora a quasi parità con gli altri Apache open-source, streaming di framework come Flink e la Scintilla. Caratteristiche chiave Samza 1.0 SQL e di un più alto livello di API, l’adozione di Apache Fascio. Che cosa significa questo per questo spazio, e come si fa a scegliere?
Venerdì nero, Cyber lunedi significa più di frode; Macchina di apprendimento per il salvataggio?
Sul venerdì Nero, Cyber lunedi, e altri punti vendita di picco punti acquisti di vedere nuove altezze di ogni anno, e il tentativo di frode segue a ruota. Come è possibile di dati e di conoscenze di dominio leva per la safegueard i consumatori e i rivenditori?
Dai big data per IA: a che punto siamo e qual è la strada da seguire?
Ci sono voluti AI soli un paio di anni per andare da sottofondo al mainstream. Ma, nonostante i rapidi progressi su molti fronti, l’IA è ancora qualcosa che in pochi conoscono e ancora meno in grado di master. Qui ci sono alcune indicazioni su come fare il lavoro per voi, non importa dove siete nel vostro viaggio AI.
Argomenti Correlati:
Big Data Analytics
L’innovazione
CXO
Intelligenza Artificiale
Enterprise Software
Archiviazione
0