Xilinx affina AI chip di strategia: non È solo la rete neurale

0
18

AI chip di guerra: Intel ha un piano per vincere
Intel ha 3 punti del piano per il successo di un IA strategia.

Il produttore di Chip Xilinx martedì ha tenuto la sua annuale “analyst day”, evento a New York, dove ha detto di Wall Street contatori di fagioli di cosa aspettarsi dal magazzino. Durante l’evento la società approfonditi un po ‘ di più di come verrà dopo un vivace mercato per data center chip, in particolare di quelli per il machine learning.

Che mercato è destinato a salire a $6,1 miliardi di dollari entro il 2024 da 1,8 miliardi di dollari nel 2020.

La messa a fuoco per Xilinx è una zattera di nuova piattaforma di prodotti che si prendono le proprie capacità al di là del cosiddetto field-programmable gate array, o Fpga, che ha venduto per decenni. Che richiede la vendita di sviluppatori di applicazioni AI sul concetto c’è più di una semplice rete neurale stessa che deve essere accelerato nel computer.

Data center è una piccola parte di Xilinx del fatturato complessivo, pari a $232 milioni di euro nell’anno fiscale conclusosi a Marzo, su un totale di 3,1 miliardi di dollari in entrate dell’azienda. Tuttavia, è il più veloce-crescente parte della società, l’aumento 46% dello scorso anno. La società ieri ha detto di data center delle entrate la crescita dovrebbe accelerare, in aumento in una gamma di 55% al 65% questo anno fiscale, rispetto al tasso di crescita annuo del 42% nel periodo 2017 fino al 2019.

xilinx-versal-ai-engine-tile.png

Xilinx si aspetta di guadagnare terreno nella macchina di apprendimento di inferenza in virtù di “piastrelle” calcolare i blocchi che si collegano l’uno all’altro su un ad alta velocità del bus di memoria, all’interno della “AI Motori di” porzione “Universale” programmable chip.

Xilinx

Per farlo, Xilinx è passato in movimento il suo patrimonio in Fpga, a qualcosa di più complesso. Gli fpga contenere una sorta di vasto campo di porte logiche che possono essere ri-arrangiati, quindi hanno la prospettiva di essere sintonizzato su un compito e quindi prestazioni più elevate e una maggiore efficienza energetica.

Xilinx ora vuole vendere la piattaforma di chip, che ancora in possesso di programmable logic gates, ma anche di integrare i diversi elementi funzionali che sono più particolari attività, quali l’apprendimento automatico, il tutto su una singola matrice di silicio.

Amministratore delegato della società, Victor Peng, ha iniziato la sua presentazione per l’evento con un grafico di applicazioni, una sorta di sandwich, in cui gli algoritmi di apprendimento automatico sono stati bloccati in mezzo ad altre due parti, una pre-fase di lavorazione e una fase di post-elaborazione. Xilinx messa a fuoco, al momento, è per inferenza compiti, quando la macchina modelli di apprendimento fornire previsioni, non per la formazione.

Anche: Intel IA capo vede opportunità per ‘massiccia’ la conquista di quote di

Sarebbe bene, ha detto Peng, se i chip per l’apprendimento automatico non solo accelerato la trasformazione della rete neurale parte nel mezzo, ma anche il pre – e post-elaborazione le parti prima e dopo.

“Non c’è solo la rete neurale di elaborazione, anche se si parlato”, ha detto Peng. “Si tratta di tutta l’applicazione.”

xilinx-versal-application-acceleration-may-2019.jpg

Xilinx amministratore delegato, Victor Peng, ha sottolineato durante la vita dell’azienda analyst day, evento che non è solo la rete neurale, l’intera applicazione deve essere fatto per eseguire meglio, un passo spera di anticipo dell’azienda tesi per la sua Versal e l’integrazione con altre “piattaforma” di prodotti.

Xilinx

Per esempio, ha detto Peng, veicolo autonomo tecnologia, come “avanzati sistemi di assistenza alla guida,” o ADAS, “la latenza totale è quello che ti interessa, ma la macchina di apprendimento di un solo passo.”

Per gestire tutti i che, Xilinx sta scommettendo Cpu Intel e Gpu Nvidia sono entrambi troppo limitato. Piuttosto, gli sviluppatori vorranno system-on-a-chip che hanno a logica programmabile, ma anche alcune specifiche unità funzionali.

Che inizia con attualmente disponibili Zynq processori da Xilinx, che includono una CPU ARM embedded all’interno di un mare di programmable logic gates. Il passo successivo è un prodotto chiamato “Universale”, che Xilinx è solo tirando fuori ora. Versal ha programmabili nuclei di diverso di calcolare le funzioni. Uno è un “AI Motori” logica di blocco.

AI Motori sono in realtà una collezione di piastrelle di ceramica, le singole aree di chip di elaborazione vettoriale e dedicato cache in memoria che sono collegati tra loro attraverso un bus ad alta velocità. (Per ulteriori dettagli, leggere le Versal carta bianca.)

Anche: Qualcomm Presidente Amon intende vincere in cloud su cui la società non è riuscita in passato

Resta da vedere, naturalmente, se la macchina di apprendimento sviluppatori, che apprezzano sempre di più i vantaggi degli Fpga, cotone, ad un approccio di piattaforma. Da parte di Intel e Nvidia, Xilinx affronta la concorrenza da Advanced Micro Devices, che vende sia CPU e GPU; e da Qualcomm, che ha appena annunciato una prossima macchina di apprendimento; e da fornitori di cloud, come Google, che stanno costruendo la loro parte; e da una serie di start-up, alcuni dei quali provenienti da un FPGA sfondo, come Efinix.

(Si può vedere l’intero Webcast sul Xilinx investor relations ” del sito.)

Nel corso di una domanda e risposte, Peng ha sottolineato che la Versal “famiglia” è costituito da “sei diversi prodotti,” suggerendo le funzionalità della piattaforma approccio espandere. Ha assicurato gli analisti finanziari presenti alla riunione, che Versal “sarà davvero dirompente” e che è “non solo di silicio”, ma anche i vari software di una serie di strumenti, alcuni dei quali sono in via di sviluppo, quindi la società accresciuta spesa di quest’anno.

xilinx-data-center-market-opportunity-may-2019.jpg

Xilinx prevedere una rapida crescita nel data center chip di mercato, comprese le parti per l’apprendimento automatico.

Xilinx

Peng, vice responsabile del centro dati, Salil Raje, aggiunto che la società potrà sfruttare il fatto che la macchina di approcci di apprendimento può essere scritto per il dispositivo semplicemente importando TensorFlow o altro codice che è di serie nella macchina di apprendimento di sviluppo. “Un sacco di applicazioni ora di lavoro di un framework di base, abbiamo il beneficio”, ha detto Raje. “Dobbiamo solo collegare al quadro di riferimento.”

Deve leggere

Che cosa è l’IA? Tutto il necessario per knowWhat è profondo apprendimento? Tutto il necessario per knowWhat è la macchina di apprendimento? Tutto il necessario per knowWhat è il cloud computing? Tutto quello che devi sapere

Peng aggiunto un po ‘ di prospettiva storica, notando che quando ha lavorato molti anni fa, la società ha poi conosciuto come ATI, che è stata poi acquistata da AMD, “nessuno sapeva come si scrive GP-GPU”, riferendosi al “general-purpose GPU,” attualmente caldo prodotto da Nvidia e AMD. Anche allora, “nessuno sapeva che eterogenei [informatica] è stata la risposta”, ha aggiunto, il significato, i chip che ci sono diversi tipi di circuiti miscelati insieme, come Versal. “Ora tutti capiscono il futuro è eterogeneo di calcolo, in modo che possiamo in un certo senso, deriva dietro che,” facendo un’analogia con il modo in cui i ciclisti corsa dietro a uno con l’altro per ottenere il beneficio di una galleria del vento, dietro un pilota.

Un analista finanziario in camera sottolineato che sembrava il mercato innovativo inferenza chip è stato un lungo periodo di tempo per materializzarsi — Intel domina ancora il mercato con le sue Cpu. “C’è ancora molto che è stato fatto con la CPU,” Peng concesso, aggiungendo, “ma i clienti come Twitch vengono da noi perché non possono farlo sulla CPU”, riferendosi al video gioco video in streaming operazione di proprietà di Amazon. Amazon, insieme con Baidu, ha lanciato più di “disponibilità” centri di tutto il mondo dove è possibile noleggiare l’uso di Xilinx Fpga.

Peng ha esortato la pazienza. Ha detto Xilinx ha ancora bisogno di “ottenere l’intero stack software c’,” il significato dei vari strumenti di sopra e al di sopra di Zynq e Versal. Egli ha sottolineato che il nuovo plug-in di elaborazione di carte di, che rendono il chip facile da distribuire, chiamato Alveo, sono stati rilasciati solo alla fine del 2018.

“Abbiamo sempre pensato che sarebbe una grande opportunità, ma nel corso del tempo,” ha detto.

Intelligenza Artificiale

MIT, infine, dà un nome alla somma di tutti AI timori

Perché le aziende dovranno audit algoritmi di IA e per conto del rischio

Microsoft sta preparando AI-powered Azzurro inchiostro digitale servizi

Vodafone segni accordo di cinque anni con IBM per il cloud, analytics e AI

Facebook: Nuova IA tech punti di odio più veloce (CNET)

16 libri su AI, la robotica e automazione (TechRepublic)

Argomenti Correlati:

Amazon

La Trasformazione Digitale

CXO

Internet delle Cose

L’innovazione

Enterprise Software