Datalagring: Alt, hvad du behøver at vide om nye teknologier

0
167

IT-ledere står over for en konstant strøm af “nye og forbedrede” produkt krav. Men lagring af data har ændret sig mere i de sidste 10 år end i de forudgående 25 år, og graden af ændring accelererer: Vi vil se flere forandringer i det næste årti, end vi nogensinde har set før i edb-lagring af data. Her er, hvad der kommer, som du har brug for at vide.

Forståelse af, hvad der kommer-nogle i de næste par måneder-position kyndige teknologi-lederne til at være proaktiv, value-added forandringsagenter. De nyskabelser, der er reelle og grundlæggende, at det påvirker, hvordan datacentre er opbygget og styret, og som giver utrolige nye applikationer.

Executive overblik

For tyve år siden der var storage arrays-nogle små, nogle store-og tape til arkivering. Nu, opbevaring landskab er meget mere varieret, lige fra PCIe Ssd ‘ er med udførelsen af 2010 s million-dollar storage arrays, for at skalere ud opbevaring i stand til at lagre hundrede petabytes — hundrede millioner gigabyte — på billig råvare-servere og automatiseret nok til, at to mennesker kan styre hele systemet.

Opbevaring muligheder er ved at udvide, så er krav til ansøgningen og i/O-profiler. Hvad der virkede for ti år siden-det, vi gjorde-er mindre og mindre passende nu. Her er en oversigt over de vigtigste applikationer og teknologier, der er ved at ændre, hvordan vi specificere og implementere opbevaring.

Den afgørende drivkraft

Mens teknologi muliggør nye løsninger, den vigtigste drivkraft — hvorfor vi har brug for nye løsninger-er væksten af data.

Video — forbruger og overvågning — er den vigtigste bestanddel af den samlede kapacitet, vækst. Men i virksomheden, indsamling og analyse af web-genereret data — kundernes adfærd, ad effektivitet, A/B design test, varme kort, semantisk analyse, og mere-alt generere data, der selv skal evalueres for den økonomiske værdi.

Trend-tunge industrier-såsom mad, mode, underholdning og sociale medier — som har brug for at holde deres virtuelle finger på pulsen af forandringer, skal indsamle og analysere masser af streaming time-series data til at forstå og forudsige, hvor deres markeder er i gang.

Større nøjagtighed og specificitet er også stigende datamængde og hastighed. Store detailhandlende spore deres forsyningskæder ned til den enkelte pakke af økologisk grønkål — og også spore, der har købt denne pakke — i tilfælde af en tilbagekaldelse. Som lageromkostninger fortsætte med at falde med 25% til 40% hvert år, flere og flere programmer, vil blive økonomisk, yderligere stigende behov for opbevaring.

Streaming-data, video, kunstig intelligens og maskinindlæring (ML), IoT, og mere vil drive private data butikker i exabyte område i løbet af det næste årti. Det grundlæggende problem med AI er, at for at øge den “intelligens” AI, er det nødvendigt eksponentielt større mængder af data, — og-lagring, der går sammen med det.

Virksomheder, der udnytter mulighederne i big data og analytics vil trives. De andre vil falde af i svinget.

Overvej dette, executive-guide et varslingssystem for forstyrrende tendenser og teknologier, der kan hjælpe indvarsle din virksomhed ind i en langsigtet digital succes. Fokus er på, hvad de teknologier, aktivér, så du kan rulle igennem for at se hvad funktion er mest interessant for dig.

Skal læse

Hvad er machine learning? Alt hvad du behøver for at knowWhat er tingenes internet? Alt, hvad du behøver at vide om Internet af Ting lige nu hvadder er AI? Alt, hvad du behøver at vide om Kunstig IntelligenceEnterprise AI og machine learning: Sammenligning af de virksomheder og applikationer

Storage management

For tyve år siden siloer blev den bane af lager-og database-administratorer. Ansøgninger blev svejset til server OS og storage arrays de kørte på, opgraderinger betød dyr, ny hardware og risikabelt vandringer, og behovet for at håndtere brugen pigge betød, at den infrastruktur, der var kronisk over konfigureret.

OS virtualisering, beholdere, cloud integration, og det scale-out arkitekturer (mere om dem senere), der understøtter dem, kan få os til at længes efter de dage, hvor vi kunne gå ind i et datacenter og røre ved vores lager. Nu med cloud-gateways integreret i enterprise storage arrays, og udviklere spinning op i hundredvis af terabytes for software test, at det er sværere end nogensinde at vide, hvem der bruger det, opbevaring, eller hvorfor. Og endnu sværere at vide, hvis det er omkostningseffektivt, især i betragtning af den Byzantinske båndbredde priser designet til at holde dine data som gidsel.

Hvad der er behov for, og i sidste ende vil blive vist, er sælger oplagring, sporing og analyse-applikationer, der udnytter machine learning til at forstå og rådgive admins på at optimere den samlede storage infrastruktur til ydelse og omkostninger. Disse applikationer vil vide, hvad de forskellige lagringsmuligheder omkostninger (herunder båndbredde afgifter), hvordan de udfører, og deres tilgængelighed/driftssikkerhed, og veje, at mod, hvilke programmer der har brug for, og deres økonomiske værdi til virksomheden. Det er en ordentlig mundfuld, så hvad med lige nu?

Nu, vi er nogenlunde, hvor vi var for 20 år siden, administrerende forskellige storage-stakke. Indtil AI kan hjælpe, vi er nødt til at stole på ad hoc blanding af regneark, heuristik, og den menneskelige intelligens for at få det bedste ud af vores rige opbevaring muligheder.

Stor hukommelse servere

Intel, blandt andre, vil være at indføre ikke-flygtige, random access memories (NVRAM) dette år. Disse erindringer bevare deres data-uden batterier — gennem magt-cykler.

Fordi NVRAM sidder på serverens hukommelse bus, det er størrelsesordner hurtigere end harddiske eller Ssd ‘ er. Men i modsætning til Ssd ‘ er, NVRAM kan tilgås som enten bytes hukommelse, eller 4K opbevaring blokke. Dette giver systemet arkitekter fleksibilitet ved konfiguration systemer til maksimal ydeevne og kompatibilitet.

En fælles use case vil se NVRAM anvendes i stor hukommelse servere. I dag, den seneste Xeon SP (Skylake) servere kan understøtte op til 1,5 TB hukommelse per processor, men den 12 128 GB Dimm-moduler, der kræves for at opnå, der er dyrt. I stedet for Intel ‘ s Optane NVRAM-Dimm-moduler er prissat så lavt som $625 pr 128GB — og bruger meget mindre strøm, også.

En dual-socket Xeon SP server kan understøtte 3 tb hukommelse. Med overkommelige Optane Dimm-moduler, store databaser kan køre i hukommelsen, dramatisk forbedring af performance.

Intel er ikke den eneste konkurrent i NVRAM plads. Nantero er grund til at starte forsendelse NVRAM-Dimm ‘ er næste år, der anvender teknologi, der er endnu hurtigere end Optane. Den nederste linje er, at NVDIMMs er her i dag, og tilbyde reelle fordele i forhold til DRAM-Dimm-og mere er på vej.

Skal læse

Intel sætter Optane NAND-hukommelse og storage sammen på H10 SSDFirst Optane Performance tests viser fordele og begrænsninger af Intel ‘ s NVDIMMsNVRAM tempo, levendegør med Nantero investmentBuilding en storstilet dele flash infrastruktur

Skala-ud storage

Alle cloud-leverandører at bruge meget skalerbar storage til butik exabytes data. At teknologien er på vej til virksomheden, inden for både hardware (Nutanix) og software (Quobyte), blandt andre.

Den største forskel mellem skala ud arkitekturer-som typisk er fælles-intet klynger, der kører på commodity hardware — er, hvordan de beskytter data. Aktiv i/O-systemer som regel stole på tredobbelt gentagelse, mens mindre aktive systemer, der er afhængige af avancerede sletning koder-mere om dem i næste afsnit — til at levere endnu højere niveau af databeskyttelse.

Det vigtige punkt er, at private data centre kan skabe en infrastruktur, som er konkurrencedygtig med cloud-leverandører, og tilbyder lavere latency og mere kontrol. Det centrale er at forstå, hvad din base, arbejdsbyrde, krav, og overgive brugen af skyen til forbigående eller tilsætte arbejdsmængder.

Skal læse

Top cloud-udbydere 2019: AWS, Microsoft Azure, Google Cloud; IBM gør hybrid moveHPE, Nutanix partner om hybrid cloud som en service offeringAmazon AWS: Komplet guide til verdens største udbyder af cloud servicesCloud opbevaring: Minimere udgifter til reparation

Meget robust opbevaring

Sletning koder er blevet brugt i årtier til at øge data tæthed i disk-drev og — i form af RAID — storage arrays. Men avancerede sletning koder give brugerne mulighed for at ringe i det niveau af databeskyttelse og sikkerhed, de ønsker, med meget lavt overhead.

RAID 5, for eksempel, kun beskytter mod en drevfejl. Hvis et drev fejler, og der er en uoprettelig læse fejl (JFS) i en af de resterende drev, hele opsving kan fejle.

Med avanceret sletning koder (AEC), 10 (eller flere) kørsel stribe kan være konfigureret til at overleve fire drive fejl, så selv hvis tre drev fejler, et URE vil ikke stoppe genopretning. For ultra-høj databeskyttelse, AEC kan være konfigureret til at køre på tværs af flere geografiske områder, således at endog tab af en eller flere datacentre vil ikke miste data.

Sammenlign dette med RAID 5, som kun beskytter mod en fiasko. RAID 6, som beskytter mod to fejl, kræver mere paritet, fordelt over to drev værd af kapacitet.

Med AEC kapacitet overhead typisk er omkring 40%, men vil beskytte mod så mange fejl — disk, server, selv data center udfald — som du vælger, når de er korrekt konfigureret. Fyrre procent kan synes som en høj pris, men hvis du nogensinde mistet data på en RAID-array, det er et godt køb.

Ulempen AEC er, at den matematik, der kræves for at skabe den nødvendige redundans kan være processor intensive: Det er ikke til behandling af transaktioner. Men forbedring af AEC i de kommende år vil falde beregne krav, der fører til forbedret ydeevne på tværs af mange applikationer.

Skal læse

Bygning millioner år diskThe RAID5 delusionGoogle tilføjer Elastifile til cloud arsenalThe grænser for RAID: Tilgængelighed vs holdbarhed i arkiv

Data sikkerhed

Data sikkerhed, der er relateret til ledighed, men fokuseret på at holde data ud af den forkerte hænder, vil gennemgå en gennemgribende ændringer i de næste par år. Med fremkomsten af Europa ‘ s Generelle Regler om databeskyttelse (GDPR) sidste år, indsatsen for mishandling Europæiske borgers data steg dramatisk. Kryptering i hvile og under flyvning er påkrævet. Brud på Data skal indberettes. Bøder kan være enorme.

Dette vil føre til, at den almindelige udbredelse af defense-in-depth strategier, en nødvendig reaktion på den virkelighed, mobile computing og tingenes internet: der er for mange indgange til at stole på en enkelt linje af forsvaret.

Machine learning i sidste ende vil spille en central rolle, men problemet er de enorme mængder af data, der kræves for at træne systemet. Det kræver, at organisationer til at dele trussel data ved hjælp af protokoller, der gør det muligt at automatisere trussel kommunikation og forbedring.

Skal læse

Data sikkerhed er et vigtigt spørgsmål i GDPR complianceWhat er GDPR? Alt, hvad du behøver at vide om den nye generelle regler om databeskyttelse

Neurale processorer

Hvis din organisation bruger eller planlægger at bruge, machine learning en væsentlig måde, du bliver nødt til at blive fortrolig med neurale processorer. Neurale processorer er massivt parallelle aritmetisk logisk enheder, der er optimeret til den matematik, der machine learning modeller kræver.

Neurale processorer bliver mere og mere almindelige. Der er en i Apple-Ur, og alle cloud-leverandører har skabt deres egne designs. Google ‘ s TensorFlow accelerator, for eksempel, er i stand til 90 milliarder operationer per sekund. Forventer meget hurtigere versioner i den nærmeste fremtid.

Så hvad gør neurale processorer efterspørgsel fra lager? Båndbredde.

I real-time applikationer, som i robotteknologi, autonome køretøjer, og online sikkerhed, neurale processor behov for at blive fodret med de relevante data så hurtigt som muligt, så båndbredde er vigtigt. Som convolutional neurale netværk har typisk flere niveauer, de fleste af de beregningsmæssige resultater, der er bestået inden for det neurale processor, ikke til ekstern storage. Således processorer behøver ikke L3 cache. Fokus er på at fodre de data, med så lidt ventetid som muligt, så de krævede matematik kan være færdigt ASAP.

Skal læse

Virksomheden AI og machine learning: Sammenligning af de virksomheder og applicationsFacebook s Yann LeCun afspejler den vedvarende appel af convolutionsChina ‘ s AI-forskere underviser i et neuralt net til at uddanne sig

Rack scale design

Rack scale design (RSD) er et koncept, som Intel har været fremme i mange år, og de stykker, der er gået sammen i det sidste år, med flere fremskridt kommende år. I det væsentlige, RSD er et svar til de forskellige priser af de teknologiske fremskridt i en Cpu, storage, netværk og Gpu ‘ er.

Den RSD konceptet er simpelt. Tage enkelte racks af CPU, memory, lagring, og Gpu ‘ er, forbinde dem alle med en høj båndbredde, low-latency sammenkoble, og med software, konfigurere op virtuelle servere med hvilken som helst kombination af beregner, hukommelse og storage til en bestemt applikation kræver. Tænk på RSD som en meget konfigurerbar private cloud.

HP ‘ s Synergi system er en implementering af begrebet, som er baseret, selvfølgelig, på HP hardware. Liqid Inc. har en software version, der understøtter commodity hardware og flere stoffer. Forvente, at andre kan komme ind på markedet så godt.

Med fremkomsten af PCIe-v4, og de relaterede opgradering af NVMe (NVMe kan køre over PCIe), og stigningen i antallet af PCIe lanes Cpu ‘ er, støtte, PCIe sammenkoble endelig har tilstrækkelig båndbredde til at håndtere krævende applikationer. Med evnen til at opgradere komponenter som deres teknologi forbedrer — uden bekostning for at købe nye alt andet — it-chefer vil være i stand til at lægge meget mere detaljeret kontrol over kritisk infrastruktur.

Skal læse

Dell Teknologier, der siger, at det er prepping kunder til 5G og AI med nye portfolioHow hyperscale datacentre er ved at ændre DET hele

Opbevaring-baseret behandling

Med den hurtige vækst af data mængder på kanten, og i datacentre, er det i stigende grad vanskeligt at flytte data til processorer. I stedet, behandlingen er at flytte til opbevaring.

Der er to forskellige ideer, der er omfattet under rubrikken intelligent opbevaring. På kanten, data, præ-behandling og reduktion, måske ved hjælp af machine learning, reducerer kravene til båndbredde til datacentre. I big data-applikationer, der deler en pool af lager-og/eller hukommelse giver så mange processorer, som er nødvendige for at dele den data, der er nødvendige for at opnå den ønskede ydelse.

Disse begreber er i øjeblikket mærket intelligent opbevaring af HPE, Dell/EMC, og NGD Systemer. Det går ud over de optimeringer, der er indbygget i storage array-controllere at håndtere problemer med disk latency eller adgang mønstre. Kalder det lagring intelligens v2.

Overveje en petabyte rack af hurtige, tæt, ikke-flygtig hukommelse, der er knyttet til snesevis af kraftige Cpu ‘ er i næste rack. Med ordentlig synkronisering og finkornet låsning tusindvis af VMs kunne fungere på en massiv data swimmingpool, uden at flytte hundredvis af terabytes på tværs af et netværk.

Med indførelsen af hurtige og billige neurale processorer, og en tilstrækkelig corpus for machine learning, intelligente storage-kunne blive uddannet til at være stort set selv-styring. Ud over, at en intelligent data swimmingpool. For eksempel, bruge ML til at opdage race betingelser, der er baseret på adgang mønstre og låsning af aktivitet.

Skal læse

Ren Opbevaring, Nvidia, Cisco lanceringen AI hyperscale systemsNew data storage og beskyttelse løsninger afsløret på Dell Teknologier WorldDell EMC styrker alle-flash-storage-lineup

Konklusion

Den æra af data-centreret design er her. Med over 4,5 milliarder computere i brug, — de fleste af dem mobile — og vækst af IoT stadig i fremtiden, teknologi og styring af data vil være en top prioritet for både økonomiske og juridiske årsager.

Data er i stigende grad et våben. Korrekt gemt, selv gamle data, der kan tilbyde værdi takket være nye analytiske redskaber. Heldigvis, lagring af data er mere omkostningseffektiv end nogensinde, en tendens, der vil fortsætte i den nærmeste fremtid.

Relaterede historier:

Executive ‘ s guide to the future of enterprise storage (gratis e-bog) TechRepublicverdens vigtigste kold opbevaring facilitet, der sikrer fremtiden for fødevarer TechRepublicHvordan cloud vil gemme — og ændre — disk-drev, Flash-lagring: Et cheat sheet TechRepublicStorage, servere og meget mere: Vi fandt 24 cloud-tjenester for din virksomhed AI i 2019: Hvad du behøver at vide

Relaterede Emner:

Tech-Branchen

Hardware

Anmeldelser

Mobilitet

Datacentre

Cloud