Chaque année, un large éventail de Données (Big data sociétés de m’envoyer leurs cadres prédictions pour l’année à venir. C’est amusant de les compiler, puis les lire, et de voir ce que chacun a à dire. Il y a de fourrage pour le chahuter comme certaines des prédictions sont en complète contradiction les uns des autres, et il y a de nombreuses possibilités pour les plus sûrs de l’analyse lorsque deux ou plusieurs prédictions de corroborer les uns des autres.
Intuitions
Ce que je préfère faire, cependant, est de regarder pour les thèmes qui lient les prédictions ensemble et de fournir un peu de taxonomie pour la compréhension de la gamme complète d’entre eux. De cette façon, même ceux de ces éléments qui semblent contradictoires à un niveau superficiel peuvent ensemble faire la lumière à un niveau plus profond, et un certain consensus peut émerger. Et même si le consensus des prédictions peuvent être incorrectes, nous avons néanmoins obtenir une vue composite de ce que les leaders de l’industrie de la pensée et de ce que les tendances vont probablement le résultat.
Cette année, les prévisions de parler de transition dans l’industrie, y compris le passage de pur-play analytics pour plus d’appliquer des scénarios, en particulier à l’égard de l’Internet des objets, l’Intelligence Artificielle et l’apprentissage de la machine de cas d’utilisation. La question de silo ensembles de compétences et de technologie, par opposition à une approche intégrée arrive, que signifie la notion de l’application de technologies d’analyse de google analytics.
L’IA n’est pas nouveau
Permet de’ démarrer avec l’Intelligence Artificielle (IA), John Schroeder, président directeur général et fondateur de MapR Technologies, Inc, est “en vogue”. Alors que l’IA est un contemporain de la force, Schroeder souligne à juste titre que “dans les années 1960, Ray Solomonoff posé les fondements d’une théorie mathématique de l’IA et que,” dans les années 1980, la Première Conférence Nationale de l’American Association for Artificial Intelligence (AAAI) s’est tenue à l’université de Stanford et a marqué l’application des théories de logiciel”.
Ce qui est différent aujourd’hui, cependant, c’est que les volumes de données sont en fait beaucoup plus grand, ce qui signifie que les modèles sont mieux formés et plus précis; les algorithmes sont mieux aussi, et que l’intérêt des clients est un ordre de grandeur à l’avance de l’endroit où il était il y a 30 ans.
Peut-être que c’est pourquoi Rick Fitz, vice-président de Marchés à Splunk, dit que 2017 sera l’année de “l’analyse “mainstream”, ajoutant que “plus d’informaticiens et d’ingénieurs [comptera] sur les technologies émergentes comme l’apprentissage de la machine, de l’automatisation et de l’analyse prédictive à la hausse du niveau de derrière les coulisses.”
L’automatisation et de l’emploi
Est-ce à dire que la moyenne des machines va supprimer des emplois de l’homme-un problème qui est clairement un facteur aujourd’hui dans le paysage politique? Joe Korngiebel, vice-président directeur, Expérience de l’Utilisateur lors de la Journée de travail voit de cette façon: “Non, les machines ne sont pas prise en charge, mais nous sommes à un moment critique de point d’inflexion.”
Qu’est que cela signifie vraiment? Vishal Awasthi, directeur de la Technologie chez SAP, partenaire Dauphin de Solutions d’Entreprise Société prévoit “l’élimination de la routine des tâches qui peuvent être déléguées à des…robots,” mais Awasthi tempère en disant que les travailleurs anciennement mis l’accent sur ces tâches pourrait “transformer leurs rôles dans à la connaissance des travailleurs qui mettent l’accent sur les tâches qui peuvent encore être effectuées uniquement basé sur l’intelligence en général.”
Peut-être que sous-tend pourquoi les gens de l’Internet des emplois site Indeed.com m’a dit “nous assistons maintenant à des données d’offres d’emploi aller jusqu’après plus d’une année de recul.” De Plus, la dépendance croissante sur les systèmes d’automatisation crée de la demande pour les données des professionnels de la sécurité. Indeed.com dit “de données de sécurité demeure une priorité pour les entreprises et nous avons vu bâton de hockey de la croissance depuis 2013.”
L’apprentissage de la Machine, uber alles
Cette observation semble corroborer Pentaho chef de la direction de Quentin Gallivan la prédiction de “la Cybersécurité va être le plus visible big data cas d’utilisation.” Gallivan est également en accord avec l’apprentissage de la machine camp, en disant: “2017 premiers adoptants de l’AI et de l’apprentissage de la machine dans google analytics aurez un énorme avantage dans la digitalisation de l’entreprise.”
Gallivan ne vois pas ce que limitée à quelques cas d’utilisation spécifiques, soit, en ajoutant “c’est tout aussi vrai pour le détaillant en ligne qui veulent offrir de meilleures recommandations pour les clients, pour les grands clients industriels vouloir minimiser grande coûts de maintenance, pour l’auto-conduite des fabricants de voiture ou un aéroport en vue de prévenir la prochaine attaque terroriste.”
L’IA, à l’intérieur de
Alors, où va toute cette IA smarts vivre? Toufic Boubez, vice-président de l’Ingénierie à Splunk, prévoit “l’appification de l’apprentissage machine”, expliquant que “la machine capacités d’apprentissage va commencer à infiltrer les applications d’entreprise, et les applications avancées qui vous donnera des suggestions, si ce n’est des réponses et permettre intelligent des flux de travail basés sur des données en temps réel et les commentaires des utilisateurs.” Boubez continue en disant: “cela permettra aux experts d’affaires de bénéficier d’personnalisés d’apprentissage de la machine, sans avoir à être une machine à l’apprentissage des experts,”
Cette ligne de thinkning est amplifié par le Redis Labs VP du Marketing Produit, Leena Joshi, qui estime que “les applications d’Entreprise que l ‘”apprendre” rapidement et de personnaliser les expériences de l’utilisateur sera la nouvelle norme pour la réussite.” De même, Basho du chef de la direction, Adam Wray, estime que “les organisations commencent à passer l’essentiel de leurs investissements à la mise en œuvre des solutions qui permettent aux données d’être utilisée là où elle est générée et où les processus d’affaires se produire – à la limite.” Et tandis que le “bord” peut se référer à des dispositifs physiques, il peut également se référer à la ligne d’applications d’entreprise.
Les données Scientifiques allez-y en grand ou rentrer à la maison?
L’intégration de l’intelligence dans le courant dominant de logiciels d’Entreprise fait allusion à un autre thème clé de cette année prédictions: si et dans quelle mesure nous aurons besoin de Données Scientifiques.
Oliver Robinson, Directeur au Monde de la Programmation, de la dit “en cours de formation orientée vers la science des données, les carrières d’augmenter en popularité…” et ajoute que “cela permettra de répondre à la demande croissante pour les données scientifiques et les spécialistes dans le domaine du travail.” Jeff Catlin, chef de la direction de la pointe de la PNL et de l’analyse sentiment fournisseur de Lexalytics dit “2017 sera l’Année des Données Scientifique”,” mais prédit que 2018 “, c’est quand l’IA va devenir buildable…by non des données scientifiques.”
Peut-être d’aller plus loin, les gens de chez DataStax dire que “le terme” Data Scientist ” devient moins pertinente, et seront remplacés par les Données des Ingénieurs.'” Et même dans le Monde de la Programmation Robinson permet une relaxation des Données Scientifique titre, en disant: “l’apprentissage de la Machine et l’intelligence artificielle sera également une hausse du besoin de nouveaux types de données des spécialistes” (l’emphase est mienne).
Cloudward-lié?
Peu importe si nous avons besoin de spécialistes, de scientifiques ou tout simplement une plus grande analytics alphabétisation chez les travailleurs de toutes les rayures, la question de savoir où l’analyse se fait en fait sentir. Malgré des années de battage médiatique autour du cloud, il a semblé comme la plupart des big data, l’activité a été sur des clusters Hadoop qui ont été installés sur les lieux. Mais beaucoup dans notre prédiction de la faculté insister pour que le nuage est là où les choses sont à leur tête, et que même les plus conservateurs des organisations d’adopter au moins une approche hybride.
Kunal Agarwal, directeur général de Démêler Données, prédit que “en 2017, nous allons voir les plus Grandes de Données de déplacer les charges de travail vers le cloud, tandis qu’un grand nombre de clients qui ont traditionnellement exécuter leurs opérations sur les locaux vont se déplacer vers un cloud hybride/sur site modèle.” Dan Sommer, Qlik directeur principal de l’intelligence de marché, estime que “la raison de l’endroit où les données sont générées, facilité de prise en main, et de sa capacité à l’échelle, nous assistons à une accélération de la déplacer vers le cloud.” Et Flocon de neige de l’Informatique de la direction, Bob Muglia, dit que “presque toutes les entreprises, y compris la plupart des services financiers, est maintenant engagé à adopter le cloud public.”
Eric Mizell, Vice-Président, Global Solutions d’Ingénierie à Kinetica voit une convergence du cloud, de la popularité et de la bénédiction pour l’apprentissage de la machine portées par les Unités de Traitement Graphique (Gpu), indiquant que “le Nuage d’obtenir “turbo performances Gpu”, indiquant que “Amazon a déjà commencé à déployer des Gpu, et Microsoft et Google ont annoncé des plans” et prédit que “d’autres fournisseurs de services de cloud peut également être prévu pour commencer à déployer Gpu en 2017.
L’ido, dans l’endroit à être
Beaucoup de ce besoin de puissance de traitement supplémentaire vient de l’important volume de données collectées à partir de capteurs embarqués dans des appareils conçus pour l’Internet des objets (IoT).
Le braintrust à Analysys Mason Groupe estime que “la première véritable commercial NB [bande étroite]-IoT réseaux sera lancée” en 2017, et que “les régulateurs estiment que l’augmentation de la surveillance de l’Ido.”
StreamSets PDG et Fondateur, Girish Pancha, estime qu’en 2017, l’Ido va cesser d’être le brillant chose de nouveau et commencer à obtenir réel, en disant: “l’année prochaine, les entreprises vont arrêter de mettre Tes données sur un piédestal, ou, si vous préférez, dans un silo.” En d’autres termes, l’Ido doit être intégré avec le reste du cycle de vie des données dans les organisations. Pancha commente: “l’Ido de données doit être en corrélation avec d’autres flux de données, liée à un fait historique ou données de base ou les exécuter à travers des algorithmes d’intelligence artificielle afin de fournir des activités de conduite de la valeur”.
Sur cette note, chef de la direction Andy Dearing, chef de la direction de l’Infini, une entreprise spécialisée dans les systèmes d’information géographique (SIG), estime que la corrélation de l’Ido cours d’eau avec emplacement de la base de données sera de la plus haute importance. Dearing prédit que “basés sur la localisation de l’analytique et de plates-formes qui peuvent traiter et détecter les tendances et de fournir de l’intelligence qui va devenir une tendance populaire.”
L’ajout de la spécificité de cette proclamation, Dearing dit que “l’auto-conduite des voitures et des villes intelligentes initiatives de plus en plus une réalité, il sera impératif de comprendre comment toutes les informations de localisation peuvent être utilisées pour prendre des décisions plus intelligentes.”
Boucle sans fin?
Afin de calculer cette valeur à partir de Tes données, les entreprises doivent avoir des compétences dans le traitement de flux de données en continu. Anand Venugopal, chef de produit pour StreamAnalytix à Impulsion Technologies dit “entreprises de tirer parti de la puissance de la diffusion en temps réel l’analyse de devenir plus sensible, plus agile et mieux comprendre les besoins de leurs clients et les habitudes de fournir une meilleure expérience.”
Le problème est que la simple acquisition de données n’est pas suffisante, parce que les données doivent être nettoyés et autrement préparées. Faisant cela prend beaucoup de travail, ce qui signifie que le potentiel pour de nouvelles percées technologiques est fabriqué avec une technologie vieille de réalités. Est-ce que google analytics un jeu à somme nulle?
Break on through
Pentaho est Gallivan ne le pense pas, estimant que les avancées peuvent résoudre le vieux problème plutôt que d’avoir à être embourbé par eux. Son: “l’Ido est l’adoption et la convergence avec le big data va faire automatisé de données, l’intégration d’une exigence” (encore une fois, c’est moi qui souligne). Mettre une autre manière, l’apprentissage automatique de modèles devront être mises à profit pour préparer les données avant qu’il est utilisé pour former les…machine autres modèles d’apprentissage.
C’est un assez transcendant de l’analyse et, avec le recul, assez simple. Après tout, comment pouvons-nous dire avec un visage impassible que notre technologie change de jeu si on ne l’applique pas à l’évolution de notre propre jeu?
Et le monde sera un meilleur endroit
Le Big Data et de l’analytique monde a un peu coincé en 2016. Espérons-le, 2017 engendrera plus de la “méta” de la pensée Gallivan a employé ici. Qui semblerait être un ticket de sortie du malaise actuel, et dans la prochaine étape de la productivité, et de bonne foi de la valeur pour les clients.
Armé avec optimisme, nous pouvons voir comment l’Ido-piloté par l’IA/apprentissage de la machine, fonctionnant sur le cloud à base de Gpu, intégré dans les applications d’Entreprise et d’être gérés par des Données Scientifiques, peut réellement fonctionner. Espérons que 2017 est l’année, au moins une partie de ce qui vient de se passer.