Wolkenkakkerlak: deze data-architectuur overleeft alles Bekijk nu
Tegenwoordig zijn supercomputers niet per se esoterische, gespecialiseerde hardware; ze bestaan uit hoogwaardige servers die nauw met elkaar verbonden zijn en worden beheerd door software die HPC-workloads (High Performance Computing) op die hardware implementeert. Die servers kunnen zich in een datacenter bevinden, maar ze kunnen ook in de cloud staan.
Als het gaat om grote simulaties – zoals de computationele vloeistofdynamica om een windtunnel te simuleren – heeft het verwerken van de miljoenen datapunten de kracht van een gedistribueerd systeem nodig en de software die deze workloads plant, is ontworpen voor HPC-systemen. Als je 500 miljoen datapunten wilt simuleren en je wilt dat 7.000 of 8.000 keer doen om naar verschillende omstandigheden te kijken, dan levert dat ongeveer een halve petabyte aan data op; zelfs als een virtuele cloudmachine (VM) die hoeveelheid gegevens aan zou kunnen, zou de rekentijd miljoenen uren in beslag nemen, dus je moet het distribueren – en de tools om dat efficiënt te doen hebben iets nodig dat eruitziet als een supercomputer, zelfs als het woont in een clouddatacenter.
Verwante onderwerpen:
Datacenters Enterprise Software Windows Windows 10 Samenwerking Cloud