Nvidia vince di nuovo AI inferenza punto di riferimento per i data center e bordo SoC carichi di lavoro

0
121
jetson-xavier-nx.jpg

Il Jetson Xavier NX

Nvidia sta sollecitando un’altra vittoria sulle ultime serie di MLPerf benchmark rilasciato mercoledì. La GPU maker detto che ha registrato i risultati più veloci sul nuovo MLPerf inferenza benchmark che misura le prestazioni di AI inferenza carichi di lavoro dei data center e al bordo.

MLPerf cinque inferenza parametri di riferimento, applicata in tutto quattro scenari di riferimento, coperto AI applicazioni come classificazione di immagine, rilevamento di oggetti e di traduzione. Nvidia sormontato tutti e cinque i parametri di riferimento per entrambi i data center sono concentrati gli scenari (server e offline), con la sua Turing Gpu.

Nel frattempo, il Saverio SoC trasformato nel più alto di prestazioni tra commercialmente disponibile edge e mobile Soc che ha inviato per MLPerf sotto bordo incentrato scenari di flusso unico e multi-stream.

“Moderno AI inferenza è davvero difficile,” Paresh Kharya, direttore del marketing di prodotto per Nvidia accelerated computing, ha detto ai giornalisti questa settimana. “La diversità delle reti neurali ottenere schierata oggi è immenso, e la complessità è immenso. E come ci muoviamo nel più complesso e più interessante casi d’uso come di conversazione AI, la complessità di questi modelli è solo aumentando enormemente.”

MLPerf è una vasta suite di benchmark per misurare le prestazioni del machine learning (ML) software framework (come TensorFlow, PyTorch, e MXNet), ML piattaforme hardware (tra cui Google TPUs, le Cpu Intel e Gpu Nvidia) e ML piattaforme cloud. Diverse aziende, oltre a ricercatori di istituzioni come Harvard, Stanford e l’Università di California, Berkeley, prima ha deciso di sostenere il benchmark scorso anno. L’obiettivo è quello di dare agli sviluppatori e IT di classe enterprise squadre per consentire loro di valutare le offerte esistenti e la messa a fuoco di sviluppo futuro.

Come per l’ultima inferenza benchmark, Nvidia crediti programmabilità della sua piattaforma, in tutta una serie di AI carichi di lavoro per la sua forte performance.

“AI non è solo accelerare una rete neurale, in fase di applicazione di intelligenza artificiale, è accelerare il tutto fine a fine pipeline”, ha detto Kharya. “Di Nvidia, ci siamo concentrati sulla fornitura di un’architettura unica e unica piattaforma di programmazione e di ottimizzazione per tutta la gamma di prodotti che offriamo.”

Nvidia ha presentato anche l’ultimo membro della sua Jetson serie volta a autonoma e sistemi embedded. La società ha annunciato il lancio dei Jetson Xavier NX, descritto come fornire Xavier prestazioni di dimensione nanometrica. Il modulo, che dura circa la dimensione di una carta di credito, offre fino a 21 CIME e consumi di appena 10 watt di potenza.

Nvidia ha detto che il Jetson Xavier NX è l’ideale per la robotica e applicazioni embedded con complessi di alimentazione e i vincoli di dimensioni, tra cui droni, videocamere ad alta risoluzione e sensori, video sistemi di analytics. Il sistema sarà disponibile a Marzo 2020 per $399.

STORIE CORRELATE:

US Postal Service adotta Nvidia ai per migliorare le modalità di fornitura dei sistemi diNvidia afferma il record del mondo nel corso di una conversazione IA formazionedi Google, Nvidia tout AI progressi nella formazione con MLPerf risultati di benchmarkNvidia intro EGX piattaforma di elaborazione a bordo AINvidia porta Braccio di supporto per la GPU piattaforma per il supercalcoloNvidia svela GeForce RTX di gioco SUPER GpuNvidia annuncia 10 nuovo RTX Studio portatili e mobile workstationNvidia si espande colocation programma in tutto il mondo

Argomenti Correlati:

Centri Dati

La Trasformazione Digitale

CXO

Internet delle Cose

L’innovazione

Enterprise Software