Nvidia gör Kubernetes på Grafikprocessorer tillgängliga

0
139

Noll

På CVPR (Computer Vision and Pattern Recognition) konferens på tisdag, Nvidia tillkännagav ny djup verktyg för lärande för både forskare och utvecklare, inklusive en release candidate-version av Kubernetes på Nvidias Grafikprocessorer som är tillgänglig för utvecklare för feedback och testning.

Kubernetes på Nvidia GPUs gör att utvecklare och DevOps ingenjörer bygga och driftsätta GPU-accelererade djupt lärande utbildning eller slutledning program på multi-cloud GPU kluster, i stor skala. Det gör det möjligt för automatisering av distribution, underhåll, planering och drift av GPU-accelererade behållare ansökan. Detta bör hjälpa utvecklare att hantera det växande antalet AI-drivna applikationer och tjänster, Nvidia noteras.

kubernetesstack0.png

Dessutom, Nvidia tillkännagav den allmänna tillgängligheten av TensorRT 4, den senaste versionen av sin djupa lärande inferencing programvara som optimerar prestanda. Med integration i TensorFlow, det snabbar upp slutledning resultat av tal, ljud-och recommender apps. Medan det var i beta, ingenjörer som använder TensorRT 4 ställa in två nya slutledning hastighetsrekord, Nvidia noteras — en latens och en i genomströmning

Nvidia är också med konferensen är att visa en tidig version av APEx, ett open source-tillägg som gör det möjligt för forskarna att använda PyTorch att maximera djupt lärande utbildning prestanda på Volta Grafikprocessorer. Nu tillgänglig i betaversion på GitHub, att det automatiskt gör att blandade precision utbildning som är enkel att använda.

Slutligen, Nvidia är att göra tillgängliga Nvidia DALI, ett open source-bibliotek forskare kan använda för att optimera data rörledningar av djupt lärande ramar. Nvidia: s uppgifter forskarna har använt det för att finjustera DGX-2, AI superdator, för att uppnå ett rekord på 15 000 bilder per sekund i utbildning.

Relaterade Ämnen:

CXO

Digital Omvandling

Tech-Industrin

Smarta Städer

Cloud

0