Come la generazione di dati di accumulazione e accelera, abbiamo raggiunto un punto di svolta in cui l’utilizzo della macchina di apprendimento, semplicemente, funziona. Utilizzando tecniche di apprendimento automatico di modelli di treni, che consente di trovare i modelli dei dati e fare previsioni basate su quelle è applicato a praticamente tutto oggi. Ma i dati e i modelli sono solo una parte della storia.
Inoltre: AI chip unicorno che sta per rivoluzionare tutto
Un’altra parte, altrettanto importante, è il calcolo. Macchina di apprendimento si compone di due fasi: la Formazione e l’inferenza. Nella fase di formazione i modelli sono stati estratti e di apprendimento automatico di modelli che catturano la loro creazione. In fase di inferenza, addestrati i modelli vengono distribuiti e alimentato con nuovi dati per generare i risultati.
Entrambe queste fasi richiedono potenza di calcolo. Non una qualsiasi, calcola, infatti, come risulta Cpu non sono realmente orientato verso il tipo specializzato di calcolo richiesto per l’apprendimento automatico dei carichi di lavoro. Le gpu sono attualmente l’arma di scelta quando si tratta di apprendimento automatico dei carichi di lavoro, ma che potrebbe essere in procinto di cambiare.
AI chip è ancora più interessante
GPU fornitore Nvidia si è reinventata come AI chip azienda, fino a venire con nuovi processori orientati specificamente verso la macchina di apprendimento dei carichi di lavoro e a dominare questo mercato. Ma il boom di apprendimento automatico dei carichi di lavoro ha stuzzicato l’appetito di altri giocatori.
Inoltre: AI chip per i big data e la macchina di apprendimento
Fornitori di Cloud come Google e AWS sono al lavoro sul loro proprio AI chip. Intel sta lavorando per ottenere chip FPGA a forma di macchina di supporto all’apprendimento. E upstarts stanno avendo un andare a entrare in questo mercato. GraphCore è il più alto profilo tra di loro, con il recente finanziamento di aver catapultato in unicorn territorio, ma non è il solo: Invio Habana.
Habana è stato lavorare su un proprio processore per IA a partire dal 2015. Ma come Eitan Medina, la sua CBO ci ha detto in una recente discussione, è stato farlo in stealth fino a poco tempo fa: “il Nostro motto è AI prestazioni, non storie. Abbiamo lavorato sotto copertura fino a settembre 2018”. David Dahan, Habana amministratore delegato, ha detto che “tra tutte AI semiconduttori di start-up, Habana Labs è il primo e tuttora l’unico, che ha introdotto e pronto per la produzione IA processore”.
Come Medina, ha spiegato, Habana è stata fondata dal CEO David Dahan e VP di R&s Corse Halutz. Sia Dahan e Halutz sono semi-conduttore di veterani del settore, e hanno lavorato insieme per anni in aziende di semiconduttori, CEVA e PrimeSense. Il team di gestione comprende anche CTO Shlomo Raikin, ex Intel progetto di architetto.
Medina stesso ha anche un background di ingegneria: “il Nostro team ha una esperienza di apprendimento automatico. Se Google argomenti come la quantizzazione, troverete i nostri nomi,” Medina ha detto. E non c’è nessuna mancanza di fondi o personale.
Habana appena chiuso un girone B round di finanziamento di 75 milioni di dollari, guidato da Intel Capital, non meno, che portano il totale del finanziamento di 120 milioni di dollari. Habana ha un organico di 120 con base a Tel Aviv, in Israele, ma ha anche uffici e R&D in San Jose, stati UNITI, Danzica, in Polonia, e a Pechino, in Cina.
Questo sembra solido. Tutte queste persone, i fondi, e il know-how sono stati messi in moto, identificando le opportunità. Molto simile GraphCore, Habana Medina pensa che AI chip di gara è tutt’altro che finita, e che la Gpu può essere dominante per il momento, ma questo sta per cambiare. Habana porta due importanti innovazioni alla tabella: processori Specializzati per la formazione e l’inferenza e l’efficienza energetica.
La separazione di formazione e di inferenza per offrire prestazioni superiori
Medina notato che a partire da un foglio bianco per progettare il loro processore, una delle scelte fatte all’inizio è stato quello di indirizzo, di formazione e di inferenza separatamente. Come questi carichi di lavoro hanno esigenze diverse, Medina ha detto che il trattamento di loro separatamente, ha permesso di ottimizzare le prestazioni per ciascuna impostazione: “Per anni, GPU fornitori che hanno offerto nuove versioni di Gpu. Ora Nvidia sembra aver capito che è necessario differenziare. Abbiamo ottenuto questo dall’inizio.”
Inoltre: AI di Avvio del Girfalco giri pletora di chip per l’apprendimento automatico
Habana offre due diversi processori: Goya, l’indirizzamento di inferenza e di Gaudí, l’indirizzamento di formazione. Medina ha detto che Goya è utilizzato oggi in produzione, mentre Gaudi sarà rilasciato nel Q2 2019. Ci siamo chiesti qual è stato il motivo di inferenza è stato affrontato prima. Fu a causa dell’architettura e dei requisiti per l’inferenza sono più semplici?
Medina ha detto che è stata una decisione strategica in base ai segnali del mercato. Medina notato che la parte del leone di inferenza carichi di lavoro nel cloud e corre ancora sulla Cpu. Quindi, ha spiegato, Habana obiettivo primario in questa fase è quello di affrontare questi carichi di lavoro come una sostituzione drop-in. Infatti, secondo la Medina, la Habana clienti, a questo punto, sono, in larga misura, dati i proprietari di centro e fornitori di servizi cloud, così come autonoma e auto-venture.
La proposta di valore in entrambi i casi è principalmente prestazioni. Secondo i benchmark pubblicati da Habana, Goya è significativamente più veloce rispetto ad entrambe le Cpu Intel e Nvidia Gpu. Habana usato il ben noto RES-50 benchmark, e di Medina, spiega la motivazione era che la RES-50 è il più facile da misurare e confrontare, in quanto ha meno variabili.
Medina ha detto altre architetture devono fare dei compromessi:
“Anche quando gli viene chiesto di rinunciare alla latenza, la velocità effettiva è al di sotto di dove siamo. Con Gpu / Cpu, se si desidera migliorare le prestazioni, è necessario raggruppare i dati in ingresso in un grande gruppo di lotti di alimentazione del processore. Allora avete bisogno di aspettare fino a tutto il gruppo è finito per ottenere i risultati. Queste architetture hanno bisogno di questo, altrimenti la velocità effettiva non sarà buono. Ma grandi lotti non sono utilizzabili. Abbiamo super alta efficienza anche con lotti di piccole dimensioni.”
Ci sono alcuni punti notevoli su questi parametri. Il primo, Medina ha sottolineato, è che la scala è logaritmica, che è necessario per essere in grado di ospitare Goya e il concorso nella stessa grafici. Quindi l’affermazione che “la Habana fuma inferenza incumbent.” La seconda è che i risultati diventano ancora più interessanti se l’efficienza energetica è preso in considerazione.
L’efficienza energetica e lo stack di software
L’efficienza energetica è un parametro utilizzato per misurare quanta energia è necessaria per il calcolo dei parametri di riferimento. Questo è un parametro molto importante. Non è sufficiente per offrire prestazioni superiori da solo, il costo di consegna di questo è importante. Una metrica standard per misurare le prestazioni del processore IPS, di Istruzioni Al Secondo. Ma IPS/W, o IPS per Watt, è probabilmente una scelta migliore, in quanto prende in considerazione il costo di fornitura di prestazioni.
Anche: Alibaba al lancio proprio AI chip prossimo anno
Maggiore è l’efficienza energetica è meglio in ogni modo possibile. Pensando centri di dati e di veicoli autonomi, riducendo al minimo i costi di energia elettrica, e di aumentare l’autonomia sono i requisiti chiave. E in un quadro più ampio, l’abbassamento delle emissioni di carbonio, è una delle principali preoccupazioni per il pianeta. Come Medina, “Si deve la cura per l’ambiente, e si dovrebbe preoccuparsi tasca”.
Goya proposta di valore per i centri dati è incentrato su questo, anche considerando i requisiti di latenza. Come Medina ha detto, per uno scenario di elaborazione 45K immagini/secondo, tre Goya carte possono ottenere risultati con un tempo di latenza di 1,3 msec, in sostituzione di 169 CPU server con un tempo di latenza di 70 msec plus 16 Nvidia Tesla V100 con un tempo di latenza di 2,5 msec, con un costo totale di circa 400.000 dollari. Il messaggio è chiaro: Si può fare di più con meno.
TPC, Habana Tensore di Core del Processore, il cuore di Goya, supporta diversi fattori di forma, configurazioni di memoria e schede PCIe, nonché misto di precisione numerica. Inoltre è programmabile in C, e accessibile attraverso la Habana chiamate GEMM motore (Generale Moltiplicazione Matriciale). Questo tocca un altro aspetto chiave di AI chip: Lo stack di software e integrazioni con la macchina esistente, quadri d’apprendimento.
Come c’è una sfilza di machine learning framework persone usano per costruire i loro modelli, sostenendo come molti di loro come perfettamente possibile è un requisito fondamentale. Goya supporta modelli addestrati su qualsiasi processore tramite una API chiamato SynapseAI. A questo punto, SynapseAI supporta TensorFlow, mxnet e ONNX, un nuovo formato di scambio per un profondo modelli di apprendimento, e sta lavorando per aggiungere il supporto per PyTorch, e di più.
Gli utenti dovrebbero essere in grado di distribuire i loro modelli di Goya, senza dover armeggiare con SynapseAI. Per coloro che desiderano modificare i loro modelli di includere personalizzazioni, tuttavia, la possibilità di farlo c’è, così come IDE strumenti a supporto. Medina ha detto questo di programmazione a basso livello è stato richiesto da clienti che hanno sviluppato modi personalizzati di massimizzare la resa sulla loro impostazione corrente e vorrei replicare questo Goya.
L’immagine più grande
Allora, chi sono questi clienti, e come si può realmente diventare un cliente? Medina ha detto Habana è una sorta di processo di screening per i clienti, in quanto non ancora al punto in cui possono nave enorme quantità di Goya. Habana è di campionamento Goya per le aziende selezionate, solo in questo momento. Ecco cosa c’è scritto sul modulo che dovrete compilare, se siete interessati.
Inoltre: AI Startup Cornami svela i dettagli della rete neurale chip
Non che Goya è un mezzo di prodotti da forno, come è in uso in produzione in base alla Medina. Nomi specifici non sono stati discussi, ma sì, questi includono i fornitori di soluzioni cloud, in modo che si può lasciare correre la vostra immaginazione. Medina ha anche sottolineato la sua attività di R&D a livello hardware per Goya è in gran parte fatto.
Tuttavia, c’è in corso il lavoro di prendere le cose al livello successivo con 7 nanometri chip, oltre a lavorare sul Gaudi processore per la formazione, che promette una scalabilità lineare. Inoltre, lo sviluppo del software stack non cessa al fine di ottimizzare, aggiungere nuove funzionalità e il supporto per più quadri. Recentemente, Habana pubblicato anche open source Linux driver per Goya, che dovrebbe aiutare molto in considerazione Linux è ciò che alimenta la maggior parte dei centri di dati e sistemi embedded.
Deve leggere
Top 5: le Cose da sapere riguardo AI (TechRepublic)
AI chip, presto, alimentazione Pc, auto, telecamere di sicurezza (CNET)
Habana, proprio come GraphCore, sembra avere il potenziale per portare a gravi disagi della IA chip di mercato e il mondo in generale. Molti dei suoi edifici sono simili: Una nuova architettura, squadra esperta, ben finanziata, e cercando di cogliere l’occasione. Una differenza evidente è il modo in cui si avvicinano a loro immagine pubblica, come GraphCore è stato abbastanza aperti circa il loro lavoro, mentre la Habana era un parente sconosciuto fino ad ora.
E le domande ovvie — che è più veloce/migliore, che nessuno riuscirà, può detronizzare Nvidia — semplicemente non lo sappiamo. GraphCore non ha pubblicato nessun benchmark di riferimento. A giudicare da un’organizzazione di maturità punto di vista, Habana sembra essere in ritardo, a questo punto, ma che non necessariamente significano molto. Una cosa che possiamo dire è che questo spazio è in piena espansione, e ci si può aspettare AI chip di innovazione per catalizzare AI ulteriormente presto.
Il servizio da asporto questo, tuttavia, dovrebbe essere quello di rendere efficienza energetica, un aspetto chiave del AI narrativa di andare avanti. La Performance ha un prezzo, e questo dovrebbe essere preso in considerazione.
Storie correlate:
AI insaziabile appetito per il silicio richiede nuovi chip
Nvidia AI punti ricerca di un’evoluzione del chip business
AI di avvio Flex Logix bagarini di gran lunga maggiore di prestazioni rispetto a Nvidia
Intel a 3 punti del piano per uscire in cima AI chip di guerra
AI potrebbe ridurre il tech nel tuo smartphone
Argomenti Correlati:
Hardware
La Trasformazione Digitale
CXO
Internet delle Cose
L’innovazione
Enterprise Software