DARPA: il Nostro obiettivo è 100 volte più veloce scheda di rete per domani AI

0
146

Il futuro sono le reti neurali dovrebbe espandersi
Facebook IA regista Yann LeCun parla come di domani di reti neurali per la profondità di apprendimento sarà molto, molto più grandi di quelli di oggi.

DARPA vuole rompere una velocità di rete collo di bottiglia causato da schede di interfaccia di rete (Nic) che non sono tagliato per il supporto di domani richieste per l’intelligenza artificiale.

Per raggiungere il suo obiettivo, il Dipartimento della Difesa agenzia lancia il Fast Schede di Interfaccia di Rete (FastNICs) programma.

Il FastNIC non è una tecnologia, ma la DARPA FastNICs programma è in cerca di ingegneria talento per contribuire a realizzare la sua ambizione di incrementare le prestazioni dello stack di rete sul server di 100 volte.

Come DARPA, spiega, che le prestazioni di rete ha seguito lo stesso percorso, come potenza di calcolo ha spiegato dalla Legge di Moore.

Ma Nic, il hardware che collega il computer a una rete Ethernet, non hanno tenuto il passo e, con un paio di altri fattori come la memoria e la progettazione del software, la velocità effettiva applicazione è troppo lento per il futuro del AI e il calcolo distribuito.

“Il vero collo di bottiglia per il throughput del processore è l’interfaccia di rete utilizzata per collegare la macchina a una rete esterna, come una porta Ethernet, quindi limitando gravemente un processore di dati di ingerire capacità”, ha detto il Dottor Jonathan Smith, un program manager DARPA Informazioni Ufficio per l’Innovazione (I2O).

Il throughput di rete con l’hardware migliore, oggi, è di circa 10^14 bit per secondo (bps), o circa 12 terabit al secondo. I dati sono trattati in forma aggregata, a circa 10^14 bps, secondo Smith.

Il problema chiave è che l’attuale stack di rete sono molto più lento, in grado di erogare circa 10^10 per 10^11bps applicazione di lavorazioni, che sono in basso gigabit al secondo intervalli.

DARPA vuole risolvere un problema particolare nel calcolo distribuito dal momento che esso dipende fortemente sulla comunicazione tra i nodi di calcolo. La mancanza di significativamente più veloce Nic sta diventando una sfida per AI profondi di addestramento di reti neurali e classificazione di immagini.

Ma cosa DARPA vuole da FastNICs non è un compito semplice e richiede una revisione dell’intero stack di rete.

“In particolare è escluso di ricerca che si traduce principalmente in miglioramenti evolutivi per lo stato attuale della pratica,” DARPA note nel documento di gara.

Sotto FastNICs, DARPA seleziona una sfida applicazione e dare supporto hardware e software. L’hardware di sviluppo del progetto richiederà ricercatori per dimostrare 10tbps hardware dell’interfaccia di rete utilizzando l’esistente o road-mapping technology. E l’hardware deve essere in grado di connettersi al server utilizzando le interfacce standard.

“C’è un sacco di spese e le complessità coinvolti nella costruzione di una rete di stack da massimizzare le connessioni tra l’hardware e il software per la rielaborazione di interfacce di applicazione”, ha spiegato Smith.

“Forti incentivi commerciali concentrati su caute incrementale progressi della tecnologia in più, di mercato indipendenti, silos, hanno dissuaso chiunque dall’affrontare la pila intera”, ha aggiunto.

La DARPA principali aree di interesse sono distribuiti apprendimento automatico e sensori per cose come Uav e self-driving cars. Più veloce interfacce di rete potrebbe aiutare tutti i core in un cluster di computer per continuare a lavorare verso un unico scopo, come lo fanno, ma più veloce.

“Una recente ricerca ha dimostrato che, accelerando il supporto di rete, il tutto distribuito apprendimento automatico di sistema può funzionare più velocemente”, ha detto Smith.

“Con la macchina di apprendimento, i metodi utilizzati tipicamente comportano lo spostamento di dati, che crea ritardi. Tuttavia, se è possibile spostare i dati più velocemente tra le macchine con un successo FastNICs risultato, allora si dovrebbe essere in grado di ridurre il divario di prestazioni.”

darpafastnics.jpg

DARPA, ritiene oggi di schede di interfaccia di rete sono la creazione di una rete di velocità collo di bottiglia.

Immagine: DARPA

In vetrina

Amazon nuovi dispositivi: Quanto costano e quando si possono acquistare

Google vince il “diritto di essere dimenticati” in Europa

Microsoft: Abbiamo voglia di imparare il linguaggio di programmazione Python per libero

Miglior Gruppo alternative: Top smart cyclette

Super Pompato: Mike Isaac sull’evoluzione e le lotte di Uber (ZDNet YouTube)

Argomenti Correlati:

Centri Dati

Cloud

Internet delle Cose

Sicurezza