I benefici open source offre in termini di innovazione e di adozione si sono guadagnati un posto nel software enterprise. Si potrebbe anche andare fino a dire open source sta diventando la norma in software per le imprese. Ma l’open source hardware, chip per essere precisi, e AI chip per essere ancora più specifici? È che una cosa del genere?
Inoltre: AI di Avvio del Girfalco giri pletora di chip per l’apprendimento automatico
A quanto pare è. GreenWaves, una startup con sede a Grenoble, in Francia, sta facendo proprio questo. GreenWaves è lo sviluppo di custom, ultra-bassa potenza specializzato chip per l’apprendimento automatico. Questi specializzata chip di sfruttare il parallelismo e di un’architettura multi-core per l’esecuzione di apprendimento automatico dei carichi di lavoro a bordo, i dispositivi alimentati a batteria con limiti estremi. Il chip GreenWaves fa sono basati su progetti open source, e stanno facendo le onde in effetti.
GreenWaves ha appena annunciato un 7M€ Serie A di Finanziamento con Huami, Soitec, e altri investitori. Secondo l’annuncio, i fondi serviranno a finanziare la vendita rampa di GreenWaves primo prodotto, GAP8, e lo sviluppo dell’azienda di prossima generazione di prodotti. ZDNet discusso con Martin Croome, GreenWaves VP di Sviluppo del Prodotto, per scoprire che cosa questo è tutto.
Open source microprocessori per IoT
Prima di tutto, che cosa significa open source anche dire che quando stiamo parlando di microprocessori? Come Croome spiegato, ciò che è open source, in questo caso, è instruction set architecture (ISA), e il parallelo con l’ultra low power computing platform (POLPA) che si trova sulla parte superiore di esso.
Inoltre: AI Startup Cornami svela i dettagli della rete neurale chip
GreenWaves è un fabless produttore di chip. Che cosa questo significa è che si progetta architetture di chip, e poi li costruisce in outsourcing a qualche produttore di hardware. Così, GreenWaves utilizza blocchi di basso livello, la personalizzazione e la loro combinazione con la sua propria estensione, per produrre un design proprietario.
Questo approccio è un po ‘ ricorda di aprire il software di base: Un open source core, con estensioni che aggiungono valore. I blocchetti di costruzione che GreenWaves è il RISC-V set di istruzioni, e la POLPA.

La POLPA è un open source parallelo ultra-bassa potenza piattaforma innovativa di chip possono essere creati.
RISC-V è un open-source hardware ISA basandosi sugli reduced instruction set computer (RISC) principi. RISC-V può essere utilizzato royalty-free per qualsiasi scopo ed è iniziato nel 2010 presso l’Università di California, Berkeley. RISC-V ha tanti collaboratori e gli utenti del settore. Come Loic Lietar, GreenWaves’ co-fondatore e CEO notato, artisti del calibro di Nvidia e Google anche utilizzare RISC-V. in Questo modo RISC-V contributi crescere, e tutti possono trarre beneficio.
Inoltre: AI chip per i big data e l’apprendimento automatico: Gpu, Fpga
La POLPA è di un parallelo ultra-bassa potenza multi-piattaforma di base, che mira a soddisfare le necessità elaborative di IoT applicazioni che richiedono una gestione flessibile dei flussi di dati generati da sensori multipli. POLPA di voglia per soddisfare i requisiti di elaborazione di applicazioni IoT, senza superare la potenza busta di pochi milliwatt tipico di miniaturizzato e alimentato a batteria, sistemi.
La POLPA è iniziato come uno sforzo congiunto tra il POLITECNICO di Zurigo e l’Università di Bologna nel 2013. GreenWaves balzato fuori di POLPA nel 2014, come CTO e co-fondatore, Eric Flamand, è stato anche co-fondatore nel PULP. Avanti veloce di oggi, e GreenWaves ha 20 dipendenti, fornito di un primo lotto di GAP8 chip per i clienti, e ha sollevato un totale di €11.5.
L’elaborazione in tempo reale a bordo
Croome notato che GreenWaves avuto bisogno di molto meno capitale rispetto a quello che chip startup di solito bisogno, che è in gran parte spesi a ottenere diritti di proprietà intellettuale per i disegni. GreenWaves non hanno a che fare questo, e questo ha reso il finanziamento più facile. O, come Lietar, un paio di anni fa, quando GreenWaves sarebbe parlare di open source chip, c’era una buona probabilità che sarebbe stato gettato fuori dalla stanza. Non più.
Inoltre: AI startup Flex Logix bagarini di gran lunga maggiore di prestazioni rispetto a Nvidia
Quindi, cosa c’è di speciale GAP8, che può essere utilizzato per, e come?
GAP8 integrata, architettura gerarchica. Ospita 8 estesa RISC-V core e una HWCE (Hardware Convoluzione Motore). GreenWaves promesse ultra low power 20x meglio lo stato dell’arte sull’arte, sulla comprensione del contenuto. Il contenuto, in questo contesto, può significare qualsiasi cosa, dall’immagine al suono o vibrazione sensore di ingresso.
Cosa GAP8 è stato progettato per fare è quello di elaborare i dati a bordo in tempo reale, evitando la necessità di raccogliere e trasmettere per l’elaborazione di alcuni data center remoto. Per fare questo, si deve essere completamente programmabile, agile, e hanno un basso di installazione e i costi operativi.
GAP8 architettura
Agile parte, c’è GAP8 può svegliarsi da uno stato di sospensione in 0,5 millisecondi. Come Croome notato, il chip distribuito a bordo di trascorrere gran parte della loro vita, in realtà non fare nulla. Era quindi importante progettare qualcosa che sonno consumando il minor potere possibile, e poi svegliarsi e cambiare la modalità di funzionamento, il più rapidamente ed efficacemente possibile.
Inoltre: AI insaziabile appetito per il silicio richiede nuovi chip
Il basso di installazione e il costo di funzionamento è lì, troppo, come GreenWaves promette anni di funzionamento a batterie, o meglio ancora di celle solari. Come GAP8 in grado di operare su soluzioni wireless come LoRa, GreenWaves promette anche un 10 a 100 volte riduzione dei costi rispetto alle installazioni via cavo.
Così, che cosa può GAP8 fare? I client utilizzano GAP8 per cose come il conteggio delle persone o oggetti, vibrazioni e analisi del suono, il riconoscimento di oggetti, e di più. Alcuni ambiti di applicazione sono le smart cities, l’industria, la sicurezza e le applicazioni consumer. La parte veramente interessante, tuttavia, è come funziona il tutto.
La distribuzione di apprendimento automatico di modelli
Tutte queste applicazioni sono basate sull’uso di machine learning, e, più specificamente, le reti neurali. GAP8 si prende cura di inferenza, il che significa che i modelli devono essere addestrati prima, e quindi distribuito su GAP8. E questo è dove diventa un po ‘ complicato.
Inoltre: Chip di avvio Efinix spera di bootstrap AI sforzi nell’IoT
GAP8 è programmabile tramite il C o il C++. Quindi, come si fa a ottenere da un modello costruito utilizzando TensorFlow, o PyTorch, e di altre macchine di apprendimento biblioteche, per la distribuzione in un GAP8? Il software è open source e disponibile su GitHub.
Esempi esistenti per lo sviluppo di flusso da TensorFlow di C. Tuttavia, ci sono un paio di trucchi. Primo, attualmente GAP8 funziona solo con TensorFlow. Croome detto questo una questione di risorse e di priorità, e l’integrazione con altre strutture saranno forniti pure. Per il momento, ha aggiunto, ciò che le persone fanno è quello di porta di modelli creati in altri quadri di TensorFlow via ONNX.
Quindi, se sei in attesa di una distribuzione con un solo clic, sei in una delusione. Come Croome spiegato, il flusso di strumenti di base, piuttosto che essere monolitico. Questo significa che un certo numero di strumenti forniti da GreenWaves devono essere utilizzate al fine di implementare modelli di GAP8.
Croome notato che “tutte le funzionalità di GAP8 è visibile al programmatore, ma che siamo in grado di fornire pre-scritto e ottimizzato il codice come un “blocco di partenza” per ottenere qualcosa, e in breve tempo. Il HWCE accelera l’operazione di convoluzione, tuttavia, come tutti i blocchi hardware funziona su specifici tipi di convoluzione. Se non corrisponde un livello specifico, allora questo può sempre essere accelerato sul cluster core a livello di programmazione.”
Portare efficienza energetica per l’architettura IoT
La cosa importante, tuttavia, è la capacità di elaborare dati a bordo. Con un processore come GAP8, Croome notato, si può analizzare il contenuto prodotto da una ricca sensore dati e caricare solo il risultato, per esempio, quante persone sono in una stanza:
Anche: Soddisfare Jetson Xavier: Nvidia AI chip
“Questo può anche essere caricato in una serie temporale di database tramite un IoT Application platform (che può anche essere colpito solo dopo la trasmissione su una bassa velocità LPWAN tipo di rete, riducendo ulteriormente il trasferimento dei dati). L’energia spesa nel fare questa analisi e la trasmissione wireless dei risultati, che può essere visto come un ultimo compressione, è molto meno di quanto la trasmissione wireless dei dati grezzi.”
Alcune delle applicazioni di bassa potenza AI chip come GAP8 può essere utilizzata per semplificare IoT architettura
Anche se abbiamo visto cose come la distribuzione Hadoop a bordo, questo avrebbe poco senso qui. Algoritmi di intelligenza artificiale che operano su aggregare i dati provenienti da più sensori o di accesso a database molto grandi sul pre-compresso dati sono nettamente migliori eseguito su piattaforme generiche sul bordo (in contrapposizione a bordo) o nel cloud, secondo Croome.
“Per quel che in molti affrontano la domanda di riconoscimento, l’estrazione delle caratteristiche chiave che sarebbe stato eseguito su GAP8 nel dispositivo di rilevamento, il risultato sarebbe stato caricato e il corrispondente verrebbe eseguito nel cloud. Questo sarebbe il miglior equilibrio di un sistema dal punto di vista del consumo energetico e da un SW prospettiva di ingegneria,” Croome detto.
Lietar detto GreenWaves è stato un passo avanti rispetto al mercato nell’identificazione e servire questo segmento che è ormai ampiamente riconosciuto. Croome notato lo stato dell’arte in macchina di apprendimento è in rapida evoluzione. Ha poi aggiunto, tuttavia, che, poiché GAP8 non è specializzato, è in grado di adattare bene alle nuove topologie e gli operatori, pur mantenendo una migliore classe di efficienza energetica.
L’innovazione che porta a ottimizzare il rendimento energetico e in grado di semplificare l’architettura tecnica – cosa non piace?
PRECEDENTE E RELATIVA COPERTURA:
Che cosa è l’IoT? Tutto quello che devi sapere
L’Internet delle Cose”, ha spiegato. Ciò che l’IoT è e dove sta andando avanti.
Che cosa è l’IA? Tutto quello che devi sapere
Un esecutivo a guida di intelligenza artificiale, machine learning e generale AI alle reti neurali.
Cos’è il deep learning? Tutto quello che devi sapere
Il lowdown su deep learning: da come si relaziona con il più ampio campo di machine learning a come iniziare con esso.
Che cosa è macchina di apprendimento? Tutto quello che devi sapere
Questa guida spiega in cosa consiste la macchina di apprendimento, di come esso è legato all’intelligenza artificiale, come funziona e perché è importante.
Che cos’è il cloud computing? Tutto quello che devi sapere su
Un’introduzione al cloud computing destra, dalle nozioni di base fino a IaaS e PaaS, ibrido, public e private cloud.
STORIE CORRELATE:
Nvidia AI punti ricerca di un’evoluzione del chip business
Huawei svela AI Ascend chip
Onda Computing vicino a svelare il suo primo sistema di IA
Nvidia favoloso falsi decomprimere la scatola nera di AI Qualcomm scommesse di $100 metri sul nuovo AI fondi di venture capital CNETIBM potenzia AI chip di velocità, portando apprendimento profondo TechRepublic
Argomenti Correlati:
La Gestione Dei Dati