Sky kakerlakk: Denne dataarkitekturen vil overleve alt Se nå
I disse dager er ikke superdatamaskiner nødvendigvis esoterisk, spesialisert maskinvare; de består av high-end-servere som er tett sammenkoblet og administreres av programvare som distribuerer arbeidsmengder med høy ytelse (HPC) på tvers av maskinvaren. Disse serverne kan være i et datasenter – men de kan også være i skyen.
Når det gjelder store simuleringer – som beregningsvæskedynamikken for å simulere en vindtunnel – trenger behandling av millioner av datapunkter kraften til et distribuert system, og programvaren som planlegger disse arbeidsmengdene er designet for HPC -systemer. Hvis du vil simulere 500 millioner datapunkter og du vil gjøre det 7000 eller 8000 ganger for å se på en rekke forskjellige forhold, kommer det til å generere omtrent en halv petabyte med data; selv om en virtuell skymaskin (VM) kunne takle denne mengden data, ville beregningstiden ta millioner av timer, så du må distribuere den – og verktøyene for å gjøre det effektivt trenger noe som ser ut som en superdatamaskin, selv om det bor i et skydatasenter.
Relaterte emner:
Datasentre Enterprise Software Windows Windows 10 Collaboration Cloud