| 19 novembre 2019 — 17:40 GMT (17:40 GMT)
| Argomento: Intelligenza Artificiale

Un “esploso” vista la CS-1, con il lavorati porte in basso a sinistra, pompe per l’acqua di raffreddamento e tifosi in mezzo, e il “blocco motore” in alto a destra che contiene il WSE chip.
(Immagine: Cerebras Systems Inc.)
“Io sono molto meno interessati alle cose si può discutere su Twitter e più interessati ad avere clienti reali vieni a scoprire quello che abbiamo”.
Ecco come Andrew Feldman, chief executive di avvio del computer Cerebras Sistemi, illustra la sua visione del benchmark di settore per l’intelligenza artificiale, in particolare, MLPerf, il più citato provvedimento del chip del computer prestazioni su AI.
Anche: Cerebras CEO parla di grandi implicazioni per l’apprendimento automatico di una società big chip
“Non spendere un minuto di lavoro MLPerf, abbiamo passato il tempo a lavorare su clienti reali”, ha detto Feldman in un colloquio telefonico.
“Abbiamo dedicato tempo e attenzione su soppiantando la concorrenza a grandi clienti, e lavorare per ottenere prestazioni eccezionali su carichi di lavoro dei clienti.”
L’occasione per Feldman osservazioni è stata l’inaugurazione di martedì, presso il supercomputer mostra SC19, a Boulder, Colo., di Cerebras primo sistema di computer, il CS-1.
Una mappa di calore di parti della rete neurale come sono in esecuzione sul WSE chip. Ogni rettangolo è uno strato di rete neurale. La dimensione del rettangolo è come molti dei WSE chip di 400.000 nuclei livello che si sta utilizzando. Il rapporto di aspetto dei rettangoli è il rapporto di calcolare le comunicazioni della strato è in uso. La tonalità del rettangolo è il suo utilizzo del chip, con più scuro di essere migliore, il che significa, più pienamente utilizzata.
(Immagine: Cerebras Systems Inc.)
Il CS-1, un telaio che misura 15 standard unità rack alto (un po ‘ più di due metri, e un piede e mezzo di larghezza e tre metri di profondità), le case della società di WSE chip, presentato nel mese di agosto, il più grande del mondo chip per computer. Un complesso sistema di acqua e di aria di raffreddamento è progettato in il CS-1, con un grafico compilatore suite di software che ottimizza le reti neurali per usufruire del sistema di enorme potenza.
Feldman atteggiamento MLPerf è un po ‘ eretica. Dopo tutto, ogni chip azienda che promette di liberare Nvidia in rete neurale di formazione bagarini le sue prestazioni sul MLPerf. Fondata un anno fa, nel mese di febbraio da parte di Google, Baidu e accademici, il MLPerf progetto vuole essere un “giusto e utile” misura di quanto bene le varie reti neurali possono essere addestrati per l’accuratezza e come ben si può eseguire l’inferenza.
Feldman ha indicato un paio di motivi che affrontano i MLPerf bake-off. Uno è che MLPerf può essere più una misura di quanto le aziende a prepararsi per il test di un vero e proprio indicatore di ottenere il lavoro reale. Le sue osservazioni implicano che il benchmark può essere simulato, in modo che il MLPerf risultati potrebbero non essere così significativo come lo sforzo implica.
Anche: Cerebras ha almeno tre anni di anticipo sulla concorrenza con il suo gigante AI chip, dice top investor
Il “blocco motore” del CS-1. La parte di rame sulla sinistra è il “piatto freddo” che si trova dietro il WSE chip. L’ottone blocco è freddo-acqua pompe di connettersi.
(Immagine: Cerebras Systems Inc.)
“MLPerf è un tempo-di-precisione numero molto su una rete specifica che la maggior parte delle persone non usa”, ha detto Feldman. Non era specifico, ma le statistiche elencate dall’IA startup tendono a sottolineare, per esempio, ResNet-50 formazione come misura comune, una abbastanza vecchia rete neurale a questo punto.
“Chip di confronto a più livelli, non pan fuori a livello di sistema”, ha aggiunto Feldman. “I parametri di riferimento sono in realtà mai conseguiti dal cliente.”
Quindi, “È necessario disporre di un sistema e deve essere confrontato con i clienti.”
Più importante Feldman è che “noi siamo i primi ad annunciare un cliente di distribuzione di qualsiasi delle start-up” che lavorano AI chip, di cui ci sono molti. Si riferiva al fatto Cerebras annunciato Argonne National Laboratory del Dipartimento dell’Energia statunitense, il suo primo cliente, a Settembre. 17. Argonne sta parlando di questa settimana circa il suo uso del CS-1 in cose come il cancro-la ricerca della droga.
Argonne, ha sottolineato, “si era schierato decine di migliaia di Gpu, ma non lo sono in modo coerente la scelta di noi.”
In luogo di MLPerf e tali misure, Cerebras offre una serie di confronti tra il CS-1 e di altri sistemi, misure di ha sottolineato il martedì nella sua materiale preparato.
Anche: Cerebras il primo cliente per il gigante AI chip è supercomputing hog Dipartimento dell’Energia STATUNITENSE
Per esempio, la società dice che è tre volte le prestazioni di Google di TPU 2 Pod, un sistema che occupa fino a 10 standard rack ” che vale la pena di attrezzature. Il CS-1 è uno di 30 che, per dimensioni e disegna solo un quinto della potenza di questo sistema, Cerebras crediti.
Cerebras afferma, inoltre, il suo sistema ha più potenza di calcolo di 1.000 di Nvidia, V100 Gpu pur essendo solo un quarantesimo le dimensioni e un cinquantesimo del potere. (E, Cerebras sostiene, è molto più facile per ottenere un singolo CS-1 in esecuzione di legare insieme di 1.000 V100s, uno sforzo che richiede mesi.)
Quelli non possono essere i benchmark standard di settore, ma sono misure per il successo che Feldman crede che il mondo dovrebbe concentrarsi, misure che possono realmente vendere sistemi piuttosto che per la concessione di solo i diritti di vanteria.
Intelligenza Artificiale
Riconoscimento facciale: Questa nuova IA, strumento in grado di riconoscere quando si è nervosi o confuso
Alta energia: Facebook AI guru LeCun AI immagina la prossima frontiera
Che cosa è l’IA? Tutto quello che devi sapere sull’Intelligenza Artificiale
I ricercatori di IA per tenere traccia di grandi squali bianchi (ZDNet YouTube)
Guarda questo robot risolvere un Cubo di Rubik con una sola mano (CNET)
Intelligenza artificiale: Cheat sheet (TechRepublic)
Argomenti Correlati:
Big Data Analytics
La Trasformazione Digitale
CXO
Internet delle Cose
L’innovazione
Enterprise Software
| 19 novembre 2019 — 17:40 GMT (17:40 GMT)
| Argomento: Intelligenza Artificiale