Den högpresterande datorn slutförde Pi -beräkning med en precision på exakt 62.831.853.071.796 siffror.
Bild: picture alliance/Contributor/Getty Images
Ett team av schweiziska forskare hävdar att deras högpresterande dator har lagt till 12,8 biljoner nya siffror till siffran Pi, i en beräkning som nådde rekordstora 62,8 biljoner siffror totalt.
Baserat vid University of Applied Sciences i Grisons centrum för dataanalys, visualisering och simulering (DAViS), slutförde den högpresterande datorn Pi-beräkningen med en precision på exakt 62.831.853.071.796 siffror och krossade det tidigare rekordet av 50 biljoner siffror som Timothy Mullican uppnådde förra året.
Före Mullican hölls pokalen av ingen mindre än Google, vars team hittade över 31,4 biljoner siffror för Pi 2018.
Det schweiziska laget fick resultatet på drygt 108 dagar – det vill säga tre och en halv gånger snabbare än Mullican, som nådde det tidigare rekordet på 303 dagar – och väntar nu på verifiering innan det kan registreras i Guinness World Records. Först då kommer hela numret att göras offentligt tillgängligt, men forskarna retade att de senaste tio kända siffrorna i Pi nu är: 7817924264.
För de flesta kommer siffran Pi bara att ta fram avlägsna minnen från matematikklasser, där det beskrevs som förhållandet mellan en cirkels omkrets och dess diameter och ofta förkortat till de första siffrorna: 3.1415.
I århundraden – faktiskt så tidigt som de gamla babylonierna – har matematiker försökt beräkna siffrorna hos Pi med så mycket noggrannhet som möjligt. Men eftersom talet Pi är känt som ett irrationellt tal, vilket betyder att det aldrig kan representeras med yttersta precision, är poängen inte exakt att hitta praktiska användningsområden; beräkningen har snarare blivit ett inofficiellt riktmärke för högpresterande datorer och en möjlighet för forskare att tävla mot varandra.
“Vi ville uppnå flera mål med rekordförsöket”, säger Heiko Rölke, chef för DAViS. “Under beredningen och utförandet av beräkningarna kunde vi bygga upp mycket kunskap och optimera våra processer. Detta är nu särskilt fördelaktigt för våra forskningspartners, som vi gemensamt genomför beräkningsintensiva projekt inom data analys och simulering. ”
DAViS forskare använde en väletablerad algoritm som heter Chudnovsky-formeln, som utvecklades 1988 och anses vara den mest effektiva metoden för att beräkna antalet Pi. Googles team och Mullican använde också Chudnovsky -algoritmen.
Algoritmen kördes tack vare ett annat populärt datorprogram, y-cruncher, som designades 2009 av den amerikanska utvecklaren Alexander Lee specifikt för att beräkna Pi.
En av de största utmaningarna, enligt det schweiziska teamet, var mängden minne som behövdes för att uppnå en så stor beräkning. DAViS högpresterande dator installerades med två AMD Epyc 7542-processorer tillsammans med 1 TB RAM-minne, vilket inte är tillräckligt för att hålla alla siffror som de ville komma med. Y-cruncher-programmet användes därför för att byta ut siffrorna till ytterligare 38 hårddiskar (HDD) med totalt 16 TB lagringsutrymme, vilket sparar en stor del av RAM-minnet på hårddiskarna.
Under drift kan datorn och skivorna nå upp till 80 ° C, varför systemet var inrymt i ett serverrack med konstant luftkylning för att undvika överhettning. Detta bidrog med över hälften av de totalt 1700 watt effekt som forskarna uppskattar krävdes för hela beräkningen, vilket fortfarande skulle placera systemet på 153: e plats på Green500 -listan.
Det är osannolikt att Pi: s 12,8 biljoner extra siffror snart kommer att användas för praktiska tillämpningar; prestationen är snarare en återspegling av vetenskaplig uppfinningsrikedom och högpresterande prestanda.
Chudnovsky -formeln är till exempel känd för sin komplexitet: vid implementering av algoritmen finner forskare att den tid och de resurser som behövs för att beräkna siffrorna ökar snabbare än siffrorna själva, medan det blir svårare för att överleva maskinvaruavbrott när beräkningen ökar.
För de schweiziska forskarna återspeglar den nya prestationen kapaciteten hos högpresterande datasystem och deras potential för andra forskningsområden. “Beräkningen visade att vi är förberedda för data och datorkraftintensiv användning inom forskning och utveckling”, säger Thomas Keller, projektledare vid University of Applied Sciences of the Grisons. “Beräkningen gjorde oss också medvetna om svaga punkter i infrastrukturen, till exempel otillräcklig reservkapacitet.”
DAViS stöder användningen av högpresterande datorer i maskininlärning, till exempel i ett projekt som heter Translaturia som bygger ett datorstödt verktyg för att översätta från det romerska språket, framförallt talat i den schweiziska Grisons-kantonen och för närvarande hotas av försvinner.
Datacenteret tittar också på tillämpningar av DNA-sekvensanalys inom allergi- och astmaforskning, vilket också kräver högpresterande datasystem. Det nya rekordet hjälper till att förbereda grunden för framtida praktiska tillämpningar.
Relaterade ämnen:
Google -datorservrar Lagringsnätverksdatacenter