Elk jaar, een breed scala van Big Data bedrijven sturen mij hun leidinggevenden’ voorspellingen voor het komende jaar. Het is leuk om te compileren, dan is ze lezen, en te zien wat iedereen te zeggen heeft. Er is voer voor interrupties als sommige van de voorspellingen zijn in regelrechte tegenspraak met elkaar, en er is voldoende gelegenheid voor over-zelfverzekerd-analyse wanneer twee of meer voorspellingen bevestigen elkaar.
Het uitpakken van inzichten
Wat ik liever doe, maar kijk voor de thema ‘ s die aansluiten op de voorspellingen samen en bieden een aantal van de taxonomie voor het begrijpen van het volledige scala van hen. Op die manier, zelfs de items die lijken tegenstrijdig op een oppervlakkig niveau samen kunnen licht werpen op een dieper niveau, en sommige consensus kan ontstaan. En zelfs als de consensus voorspellingen kan uiteindelijk op een onjuiste we toch een samengesteld beeld van wat leiders in de industrie denkt en wat de trends zullen waarschijnlijk resulteren.
Dit jaar, de voorspellingen spreken om de overgang in de industrie, met inbegrip van het verplaatsen van pure-play analytics om meer toegepaste scenario ‘ s, in het bijzonder met betrekking tot het Internet van de Dingen, Kunstmatige Intelligentie en machine learning gevallen. De vraag van op zichzelf staande vaardigheden en technologie versus een geïntegreerde aanpak komt, net als het idee van het toepassen van analytics technologieën te analytics zelf.
AI is niet nieuw
Laat’ beginnen met Kunstmatige Intelligentie (AI), die John Schroeder, uitvoerend voorzitter en oprichter van MapR Technologies, Inc, wijst erop is “terug in de mode.” Terwijl AI is een moderne kracht, Schroeder terecht wijst erop dat “in de jaren 1960, Ray Solomonoff de basis gelegd van een wiskundige theorie van AI” en dat “in 1980 de Eerste Nationale Conferentie van de American Association for Artificial Intelligence (aanv. rubr. verzekering) werd gehouden aan de universiteit van Stanford en markeerde de toepassing van theorieën in de software”.
Wat nu anders is, is dat de data volumes zijn in feite veel groter, wat betekent dat de modellen zijn beter opgeleid en meer accuraat is; de algoritmes zijn beter, en de interesse van de klant is ordes van grootte vooruit waar het 30 jaar geleden.
Misschien is dat de reden waarom Rick Fitz, SVP van DEZE Markten op Splunk, zegt dat in 2017 zal het jaar worden dat de “Analytics gaan mainstream” toevoegend dat “meer IT-professionals en ingenieurs [vertrouwen] op opkomende technologieën zoals machine learning, automatisering en voorspellende analyses te doen op hoger niveau werken achter de schermen.”
Automatisering en werkgelegenheid
Betekent dat dat betekent dat de machines weg te nemen van de taken van de mens-een probleem dat is duidelijk een factor in het politieke landschap? Joe Korngiebel, SVP, User Experience Werkdag ziet het zo: “Nee, de machines zijn niet overnemen, maar we zijn op een cruciaal buigpunt.”
Wat betekent dat eigenlijk? Vishal Awasthi, Chief Technology Officer bij SAP partner Dolfijn Enterprise Solutions Corporation voorziet in afschaffing van routine taken die kunnen worden gedelegeerd aan…bots,” maar Awasthi de gemoederen door te zeggen dat werknemers voorheen gericht op taken zou kunnen “de transformatie van hun rollen in te kenniswerkers die zich richten op de taken die nog steeds kan alleen worden gedaan op basis van de algemene intelligentie.”
Misschien is dat ten grondslag ligt aan de reden waarom de mensen op Internet vacaturesite Indeed.com vertelde me dat “we zien nu de gegevens van werkaanbiedingen ga na meer dan een jaar van daling.” Plus, de groeiende afhankelijkheid van automatisering creëert de vraag naar beveiliging van de gegevens van professionals. Indeed.com zegt “beveiliging van de gegevens blijft aan de top van de geest voor bedrijven en we hebben gezien hockey stick groei sinds 2013.”
Machine learning, uber alles
Deze constatering lijkt te bevestigen Pentaho CEO Quentin Gallivan ‘ s voorspelling dat “Cybersecurity zal de meest prominente big data use case.” Gallivan is ook in overeenstemming met de machine learning kamp, zeggende: “2017 is de early adopters van AI en machine learning analytics krijgt een enorme first-mover advantage in de digitalisering van de business.”
Gallivan niet zien dit als beperkt tot een paar specifieke use cases, ofwel, het toevoegen van “dit is net zo waar voor de online retailer willen bieden betere aanbevelingen aan klanten, voor grote industriële klanten willen minimaliseren van kosten van groot onderhoud, voor zelf-rijdende auto fabrikanten of op een luchthaven om te voorkomen dat de volgende terroristische aanslag.”
AI, binnen
Dus waar zal dit alles AI smarts leven? Toufic Boubez, VP Engineering bij Splunk, voorziet “de appification van machine learning” uit te leggen dat “machine learning mogelijkheden zal beginnen met het infiltreren van enterprise applicaties en geavanceerde toepassingen bieden suggesties — als niet antwoorden — en bieden intelligente workflows op basis van gegevens en de real-time feedback van gebruikers.” Boubez vervolgt door te zeggen: “dit zal toestaan deskundigen voor bedrijven om te profiteren van op maat gemaakte machine learning, zonder te hoeven zijn machine learning experts”
Die lijn van thinkning wordt versterkt door Redis-Labs’, VP Product Marketing, Leena Joshi, die gelooft dat “Enterprise applicaties die ‘leren’ snel en aanpassen van user ervaringen, zal de nieuwe norm voor succes.” Ook Basho ‘ s CEO, Adam Wray, is van mening dat “organisaties beginnen te verschuiven het grootste deel van hun investeringen in het implementeren van oplossingen die het mogelijk maken dat gegevens worden gebruikt waar het gegenereerd en waar business process optreden – aan de rand.” En terwijl dat “de rand” kan verwijzen naar het fysieke apparaten, het kan ook refereren aan line-of-business-applicaties.
Gegevens Wetenschappers gaan groot of gaan huis?
De inbedding van intelligence in het reguliere Enterprise software verwijst naar een ander belangrijk thema in dit jaar de voorspellingen: of en in hoeverre moeten we de Gegevens Wetenschappers.
Oliver Robinson, Directeur bij de Programmering van de Wereld, zegt: “onderwijs gericht op gegevens loopbanen zal toenemen in populariteit…” en voegt eraan toe dat “dit zal helpen te voldoen aan de groeiende vraag naar data wetenschappers/specialisten op het werkterrein.” Jeff Catlin, CEO van het toonaangevende NLP en het sentiment van de analytics-leverancier Lexalytics zegt “2017 wordt het ‘Jaar van de Data Scientist’ maar verder voorspelt dat tegen 2018 “is wanneer de AI zal worden buildable…by non-gegevens wetenschappers.”
Misschien gaat verder, de mensen bij DataStax zeggen dat “de term ‘Data Scientist’ zal minder relevant en zal deze worden vervangen door ‘Data-Ingenieurs.'” En zelfs de Programmering van de Wereld is Robinson zorgt voor een ontspanning van de Gegevens Wetenschapper titel: “Machine learning en kunstmatige intelligentie zal ook de behoefte aan nieuwe vormen van data-specialisten” (nadruk van mij).
Cloudward-gebonden?
Ongeacht of we behoefte hebben aan specialisten, wetenschappers of gewoon hoger analytics geletterdheid van de werknemers van alle strepen, de vraag waar de google analytics zal gedaan te krijgen ontstaat. Ondanks jaren van de hype rond de cloud, het leek alsof de meeste big data activiteit is op Hadoop-clusters die zijn geïnstalleerd op het terrein. Maar velen in onze voorspelling faculteit erop aandringen dat de cloud is waar dingen zijn hoofd, en dat zelfs in de meest conservatieve van de organisaties stelt ten minste een hybride aanpak.
Kunal Agarwal, CEO van het Ontrafelen van Gegevens, voorspelt dat in 2017 zullen we zien meer Big Data-workloads te verplaatsen naar de cloud, waarbij een groot aantal klanten die van oudsher hun operaties op het terrein wordt verplaatst naar een hybride cloud/on-premise model.” Dan Sommer, Qlik senior director van market intelligence, is van mening dat “want van waar de data wordt gegenereerd, het gemak van aan de slag, en de mogelijkheid op te schalen, we zien nu een versnelde beweging naar de cloud.” En Sneeuwvlok Computing, CEO Bob Muglia, zegt dat “bijna elke onderneming, met inbegrip van de meeste financiële diensten, zet zich nu in voor de vaststelling van de publieke cloud.”
Eric Mizell, Vice President, Global Solutions Engineering aan de Kinetica ziet een convergentie van de cloud populariteit en de zegen voor machine learning gebracht met de Graphics Processing Units (Gpu ‘ s), onder vermelding van “de Cloud krijgt dan een ‘turbo-charged’ prestaties met Gpu ‘ s,” wijst erop dat “Amazon heeft al begonnen met de implementatie van Gpu’ s, en Microsoft en Google, hebben plannen aangekondigd” en het voorspellen van dat “andere cloud service providers kunnen ook worden verwacht om te beginnen met de implementatie van Gpu’ s in 2017.
De IoT, in de plaats worden
Veel van de noodzaak voor deze extra rekenkracht komt van de enorme omvang van de invoer van gegevens van sensoren die zijn ingesloten in apparaten die zijn ontworpen voor Internet of Things (IoT) toepassingen.
De braintrust bij Analysys Mason Groep is van mening dat “de eerste echt commerciële NB [smalle band]-IoT netwerken zal worden gestart” in 2017 en dat “regelgevende instanties overwegen meer toezicht van de IoT.”
StreamSets CEO en Oprichter, Girish Pancha, is van mening dat in 2017, IoT zal stoppen met de glanzende nieuwe ding en zal beginnen om echt te zeggen “volgend jaar, zullen organisaties stoppen met IoT gegevens op een voetstuk, of, zo u wilt, in een sleufsilo.” In andere woorden, de IoT moet worden geïntegreerd met de rest van de levenscyclus van de data in organisaties. Pancha ingegaan: “IoT gegevens moet worden gecorreleerd met andere gegevens stromen, gekoppeld aan historische of gegevens master of artificial intelligence algoritmen om business-rijden waarde.”
Op die opmerking, CEO Andy Verrekenings, CEO van Boundless, een bedrijf gericht op geografische informatie systemen (GIS) technologie, is van mening dat het samenbrengen van de IoT-streams met locatie-gebaseerde gegevens van het grootste belang. Verrekenings voorspelt dat “locatie-gebaseerde analyses en platforms die kunnen verwerken en het detecteren van trends, informatie en kennis zal ontstaan als een populaire trend.”
Het toevoegen van de specificiteit van deze verkondiging, Verrekenings-zegt dat “met een zelf-rijdende auto’ s en slimme steden initiatieven steeds meer van de werkelijkheid, zal het noodzakelijk om te begrijpen hoe de locatie-informatie kan worden gebruikt om slimmere beslissingen te nemen.”
Eindeloze lus?
Om voor het afleiden van een dergelijke waarde van de IoT gegevens zullen bedrijven moeten competentie op het gebied van processing van streaming data. Anand Venugopal, hoofd van het product in de voor StreamAnalytix op Impuls Technologieën zegt “bedrijven gebruik te maken van de kracht van real-time streaming analytics gevoeliger geworden, agile en krijgen een beter begrip van de behoeften van hun klanten en gewoonten aan een algeheel betere ervaring.”
Het probleem is dat louter het verwerken van de gegevens is niet voldoende, omdat die gegevens die nodig zijn om gereinigd te worden en op andere wijze bereid. Dat doen veel werk kost, wat betekent dat het potentieel voor nieuwe technologische doorbraken is getemperd met oude technologie realiteit. Dat analytics een zero sum game?
Breek door
Pentaho is Gallivan niet zo denken, te geloven in plaats daarvan dat de doorbraken kan het oplossen van de bestaande problemen in plaats van te verzanden door hen. Zijn mening: “de IoT van de adoptie en de convergentie met big data te maken van geautomatiseerde gegevens onboarding een vereiste” (nadruk van mij). Zet een andere manier, machine learning modellen zullen moeten worden aangewend om de voorbereiding van de gegevens voordat het gebruikt om te trainen…andere machine learning modellen.
Dat is een vrij transcendente analyse en, achteraf vrij eenvoudig. Immers, hoe kunnen we dan zeggen met een uitgestreken gezicht dat onze technologie is het spel veranderen als we niet toepassen op het veranderen van onze eigen spel?
En zal de wereld een betere plaats
De Big Data en analytics wereld kreeg een beetje vast in 2016. Hopelijk 2017 zal zorgen voor meer van de “meta” denken Gallivan heeft hier werken. Dat zou wel een ticket uit de huidige malaise en in de volgende fase van de productiviteit, en bona fide waarde voor klanten.
Gewapend met dat optimisme, kunnen we zien hoe de IoT-gedreven AI/machine learning, uitgevoerd op cloud-gebaseerde Gpu ‘ s, ingebed in de Enterprise-toepassingen en wordt uitgevoerd door non-Gegevens Wetenschappers, eigenlijk kan werken. Laten we hopen 2017 is het jaar ten minste een deel van dat te pas komt.