Få din virksomheds data klar til præskriptive analytics: data mængde og kvalitet i de foranstaltninger, der er lige

0
176

Hvordan til at Vinde med Præskriptive Analytics
I denne ZDNet særlig rapport undersøger vi, hvordan du oprette en analytics-infrastruktur, der ser rundt om hjørner og giver dig muligheder for at undgå et hoved-på krak.

Præskriptive analytics er en intet mindre af at automatisere din forretning. Dette var sølv foring som vi undersøgt kompleksiteten af præskriptive analytics i vores guide. Mens en masse af, at kompleksitet er noget, branche og ekspert data forskere bliver nødt til at beskæftige sig med, DET er ikke ud af den ligning, der enten.

Præskriptive analytics er svært, og der er ingen mirakelkur, der kan få dig der, uden at have gået gennem den evolutionære kæde af analytics. Du er nødt til at få de data indsamling og opbevaring infrastruktur, data modellering højre, og den stat, klassificering og forudsigelse højre.

Dette er den præskriptive analytics nederste linje, og DET har at gøre sikker på, at de data indsamling og opbevaring infrastruktur dele er på plads for business og data videnskab at gøre deres dele. De data, rengøring og organisation, der er nødvendige for succes med præskriptive analytics kan opfattes langs to dimensioner: mængde og kvalitet af de data, der skal bruges til at fodre analytics.

Data mængde

Til at begynde med, er DET nødvendigt at sørge for, at alle data, der er relevante for organisationen er tegnede sig for og tilgængeligt. Dette er virkelig en absolut forudsætning for enhver analytics indsats, men det kan være mere kompliceret end det lyder.

Overveje alle de applikationer i en organisation kan være med: custom bygget, fra hylden, på stedet, i skyen, legacy. Hver af disse kan have sit eget format, opbevaring og API. DET skal sikre, at de er alle tilgængelige, uden at forstyrre driften af applikationer. En data-søen tilgang, der kan være nyttige i denne henseende.

Og det bliver værre. Data kan også leve videre applikationer. Overveje alle de interne dokumenter og e-mails, for eksempel. Oftere end ikke, er et væld af data, der bor i ustruktureret form og udokumenterede kilder. Og mange programmer er også udokumenteret, unaccessible, og manglende Api ‘ er til at eksportere data. For dem, vil du nødt til enten at få ressourcestærke, eller undlader hurtigt.

Selv når du lykkes, men dette er ikke en one-off motion. Applikationer udvikler sig, og med dem gør deres data. Api ‘ er ændre, skemaer ændres, nye data, der er tilføjet. Nye applikationer får smidt i mixet, og de gamle bliver forældet. Opholder sig på toppen af indsamling af data kræver en vedvarende indsats, og det er en pris, du har brug for at faktor i, når man indlader sig på din præskriptive analytics rejse. At tilføje semantik til dine data søen kan hjælpe.

william-warby-1390587-unsplash.jpg

Hvor meget data er nok? Så meget som muligt.

Foto af William Warby på Unsplash

Apropos omkostninger: naturligvis, det sædvanlige, DET provisioning diskurs, gælder også her. Har du planlægge, gøre dette til et projekt med forudbestemte budget for infrastruktur og personale omkostninger, og få det igennem den organisatoriske budget godkendelsesproces? Eller vil du tage en mere adræt, pay-as-you-go ” – tilgang?

Førstnævnte er teoretisk sikrere og mere i overensstemmelse med de organisatoriske processer. Her er problemet: Medmindre dine data kilder er relativt begrænset og forstået, og du er meget grundig med at holde styr og tilførsel af midler til dem, at denne tilgang kan være umuligt i praksis.

Sidstnævnte er mere fleksibel, men kan også føre til budget overskridelse og skygge DET spørgsmål. Uden en form for metode til vanvid, kan du ende med at bruge ud af kontrol, og have dine data, der er gemt over det hele. Selvom dette ikke er et 100 procent strenge regel, budgettering foran tilgang giver mere mening, når du går til on-premises opbevaring, mens cloud storage og udvikling egner sig godt til pay-as-you-go ” – tilgang.

Endelig data friskhed er et større hensyn at tage i betragtning. Hvis du ønsker, at din analytics til at afspejle den virkelige verden i real-time data, der fodrer det bør ikke komme i realtid, også. Dette betyder, at du bør overveje streaming data-infrastruktur. Mens der er fordele i at vedtage streaming, det er et nyt paradigme, der kommer med sin egen læring og software/hardware/mennesker investeringer.