PyTorch, det Facebook-støttede open source-biblioteket for Python-programmeringsspråket, har nådd versjon 1.9 og gir store forbedringer for vitenskapelig databehandling.
PyTorch har blitt et av de viktigste Python-bibliotekene for folk som jobber med datavitenskap og AI. Microsoft la nylig til bedriftsstøtte for PyTorch dyp læring på Azure. PyTorch har også blitt standarden for AI-arbeidsbelastninger på Facebook.
Googles TensorFlow og PyTorch integreres med viktige Python-tillegg som NumPy og datavitenskapelige oppgaver som krever raskere GPU-prosessering.
SE: Ansettelsesutstyr: Python-utvikler (TechRepublic Premium)
PyTorch lineær algebra module torch.linalg har flyttet til stabil i versjon 1.9, noe som gir NumPy-brukere et kjent tillegg for å jobbe med matte, ifølge utgivelsesmerknader.
I henhold til disse utgivelsesnotatene utvider modulen “PyTorchs støtte for den med implementeringer av hver funksjon fra NumPys lineære algebramodul (nå med støtte for akseleratorer og autograd) og mer, som torch.linalg.matrix_norm og torch.linalg.householder_product.”
Den komplekse Autograd-funksjonen går også til stabil for å gi brukerne en måte å “beregne komplekse gradienter og optimalisere virkelige verdifulle tapfunksjoner med komplekse variabler.”
“Dette er en nødvendig funksjon for flere nåværende og nedstrøms potensielle brukere av komplekse tall i PyTorch som TorchAudio, ESPNet, Asteroid og FastMRI,” bemerker PyTorch-prosjektet.
Det er også noen feilsøkingsgods i denne utgivelsen med et nytt fakkel.use_determinstic_algorithms-alternativ. Aktivering av dette får operasjoner til å oppføre seg deterministisk, hvis mulig, ellers vil det gi en kjøretidsfeil hvis de kan oppføre seg ikke-bestemt.
Det er en ny beta av torch.special-modulen – i likhet med SciPys spesialmodul. Det gir mange funksjoner som er nyttige for vitenskapelig databehandling og arbeid med distribusjoner som iv, ive, erfcx, logerfc og logerfcx.
Og denne versjonen bringer PyTorch Mobile-tolk, som er laget for å utføre programmer på edge-enheter. Det er en slanket versjon av PyTorch-kjøretiden. Dette bør gjøre store kutt i binærstørrelsen sammenlignet med dagens kjøretid på enheten.
“Den nåværende pt-størrelsen med MobileNetV2 i arm64-v8a Android er 8,6 MB komprimert og 17,8 MB ukomprimert. Ved å bruke Mobile Interpreter målretter vi mot den komprimerte størrelsen under 4 MB og den ukomprimerte størrelsen under 8 MB,” bemerker PyTorch-prosjektet.
Utviklere av mobilapper kan også bruke TorchVision-biblioteket på sine iOS- og Android-apper. Biblioteket inneholder C ++ TorchVision ops for å hjelpe til med oppgaver som gjenstandsdeteksjon og segmentering i videoer og bilder.
SE: Dette gamle programmeringsspråket er plutselig varmt igjen. Men fremtiden er fortsatt langt fra sikker
Det er flere tillegg for å hjelpe med distribuert opplæring for maskinlæringsalgoritmer. TorchElastic er nå i beta, men en del av kjernen PyTorch, og brukes til å “håndtere skaleringshendelser”.
Det er også CUDA-støtte for RPC. CUDA RPC sender tensorer fra lokalt CUDA-minne til eksternt CUDA-minne for mer effektiv peer-to-peer-tensorkommunikasjon.
På ytelsesfronten gir denne versjonen av PyTorch også en stabil utgivelse av Freezing application protocol interface (API), en beta av PyTorch Profiler, en beta av Inference Mode API og en beta av torch.package, en ny måte for å pakke PyTorch-modeller.
Utvikler
De mest populære programmeringsspråkene og hvor du kan lære dem Hva er en programvareutvikler? Alt du trenger å vite om programmererrollen og hvordan den endrer seg. Koding er en lagidrett, men utviklere er delt på å jobbe hjemmefra. Hva er lavkode og ingen kode? En guide til utviklingsplattformer Beste webhotell: Finn den rette tjenesten for nettstedet ditt
Relaterte emner:
Enterprise Software Open Source Mobile OS