
(Immagine: Nvidia)
Nvidia ha preso le coperture via il suo iterazione successiva di postazioni di lavoro per i ricercatori e gli utenti interessati di apprendimento automatico, con un design di riferimento caratterizzato da un paio di Quadro RTX Gpu.
Annunciato a Nvidia CG lunedì, il doppio Quadro RTX 8000 6000 progettazione di GPU è previsto per fornire 260 teraflops, e hanno 96GB di memoria disponibile, grazie all’utilizzo di NVLink.
Firmato per fornire la nuova, più massiccio, le workstation Dell, HP e Lenovo.
Sul lato server, l’azienda ha presentato il suo RTX blade server, che possono pack 40 Gpu in un 8U spazio, e viene etichettato come un RTX Server Pod quando combinato con 31 altri RTX server blade. Tutto il RTX Server ha 1,280 Gpu. L’archiviazione e la backbone di rete del server blade sono forniti da Mellanox — che Nvidia acquistato poco meno di 7 miliardi di dollari scorsa settimana.
Parlando durante il suo keynote, CEO Jensen Huang ha detto Baccelli dovrebbe essere utilizzato per supportare l’azienda GeForce Ora di servizio, a cui SoftBank e LG Uplus sono stati annunciati come i membri della GeForce Ora Alleanza, e la sua imminente Omniverso collaborazione del prodotto che Huang descritto come Google Docs per gli studi cinematografici.
Per la Gpu Tesla, T4 Gpu sono offerti da Cisco, Dell, EMC, Fujitsu, HPE, e Lenovo in macchine che sono stati certificati come Nvidia GPU Cloud-ready — un premio Nvidia ha lanciato nel mese di novembre, che rappresenta “la capacità dimostrata di excel in una gamma completa di accelerazione di carichi di lavoro”, e sono in grado di eseguire contenitori messi insieme da Nvidia per determinati carichi di lavoro.
“La rapida adozione di T4 sul più famoso al mondo business server segnala l’inizio di una nuova era moderna in enterprise computing-uno in cui l’accelerazione GPU è diventato standard, Nvidia, vice presidente e general manager di Accelerated Computing Ian Buck ha detto.
Nel cloud, gli utenti di Amazon Web Services (AWS) sarà presto in grado di fare uso di Nvidia Tesla T4 Gpu con EC2 G4 istanze, con disponibilità prevista per le prossime settimane, e un’anteprima aperta. AWS gli utenti saranno inoltre in grado di utilizzare T4s con Amazon Elastic Contenitore di Servizio per Kubernetes.
La nube gigante ha già il supporto per Nvidia Tesla V100 sul P3 istanze che può supportare fino a 8 Gpu e 64 Intel Cpu Xeon.
Allo stesso tempo, Nvidia è riconfezionamento il suo stack di software e librerie a cadere sotto i CUDA-X moniker, tra cui RAPIDS, cuDNN, cuML, e TensorRT.
Infine, Google Cloud ML e Microsoft Azure Machine Learning hanno integrato RAPIDS, che è stato presentato come in grado di ridurre la formazione della rete dei tempi di un fattore 20.
Disclosure: Chris Duckett ha viaggiato per la GTC a San Jose come ospite di Nvidia
Relativi Copertura
Nvidia acquisto di Mellanox si trasforma in calore su Intel rivalità, data center ambitionsDell EMC, Nvidia rendere AI architettura di riferimento availableChina AI scienziati insegnare una rete neurale al treno itselfCES 2019: Nvidia nuova GeForce RTX 2060 è di soli $349NVIDIA nuovo Turing architettura potrebbe rendere la vita molto più facile per i produttori di video (TechRepublic)Cheat sheet: TensorFlow, un software open source biblioteca per l’apprendimento automatico (TechRepublic)Perché potrebbero presto essere molto più facile mettere le mani su Gpu NVIDIA (TechRepublic)
Argomenti Correlati:
Centri Dati
La Trasformazione Digitale
CXO
L’innovazione
Archiviazione
Cloud TV