Ci sono un certo numero di tipi e stili di intelligenza artificiale, ma c’è una differenza fondamentale tra il ramo di programmazione che cerca di soluzioni interessanti per relativi problemi, e la branca della scienza che cercano di modellare e simulare le funzioni del cervello umano. Neuromorfi computing, che include la produzione e l’uso di reti neurali, si occupa di dimostrare l’efficacia di qualsiasi concetto di come il cervello svolge le sue funzioni, non solo prendere decisioni, ma la memorizzazione di informazioni e anche di dedurre i fatti.
Letteralmente e praticamente, “neuromorfi” significa “prendere la forma del cervello.” La parola chiave qui è “maschera”, soprattutto perché molto di AI di ricerca si occupa con la simulazione, o almeno imitando, la funzione del cervello. La progettazione di una neuromorfi dispositivo prevede lo sviluppo di componenti le cui funzioni sono analoghe a quelle parti del cervello, o almeno a ciò che tali parti si ritiene di fare. Questi componenti non sono del cervello a forma, ovviamente, ma, come le valvole di un cuore artificiale, che svolgono i ruoli loro organico controparti. Alcune architetture di andare così lontano come a modello il cervello, la percezione di plasticità (la sua capacità di modificare la propria forma per soddisfare la sua funzione di provisioning di nuovi componenti in base alle esigenze dell’attività sono attualmente in esecuzione.
Inoltre: Un neuromorfi, la memoria-centrica, l’architettura del chip

Close-up di “Alberi e il Sottobosco” di Vincent Van Gogh, 1887. Parte della collezione del Museo Van Gogh di Amsterdam. Foto di pubblico dominio.
Gli obiettivi di neuromorfi ingegneria
Mentre la costruzione di un tale dispositivo può informarci su come funziona la mente, o almeno rivelare alcuni modi in cui essa non è, il vero obiettivo dell’operazione è quello di produrre un meccanismo in grado di “imparare” dai suoi ingressi in modi che una digitale di componenti di computer potrebbero non essere in grado di. Il saldo potrebbe essere una nuova classe di macchina in grado di essere “addestrati” a riconoscere pattern con molto, molto meno ingressi di una digitale di rete neurale richiederebbe.
“Uno dei più interessanti attributi di queste reti neurali è la loro portabilità a bassa potenza neuromorfi hardware”, si legge in un settembre 2018 IBM neuromorfi domanda di brevetto [PDF]”, che può essere implementato nei dispositivi mobili e nativo di sensori in grado di operare in modo estremamente bassi requisiti di potenza in tempo reale. Neuromorfi computing dimostra senza precedenti a bassa potenza di calcolo substrato che può essere utilizzato in molte applicazioni.”
Anche se Google è leader negli ultimi anni, attività di ricerca e produzione di hardware chiamato tensore di processori (TPU) dedicato specificamente alla rete neurale basata su applicazioni, il neuromorfi ramo è un discorso del tutto diverso bestia. In particolare, non si tratta di valutazione di qualsiasi insieme di dati in termini di discreti valori numerici, ad esempio scale da 1 a 10, o la percentuale di voti da 0 a 100. I professionisti hanno un obiettivo in mente altro che risolvere un’equazione, o semplicemente per produrre di più software. Essi cercano di produrre una conoscenza della macchina, che può portare credenziali, se non del tutto dimostrare, una teoria razionale per come la mente umana può funzionare. Non sono fuori per catturare il re in sei mosse. Sono in questo per costruire meccanismi.
Inoltre: AI chip unicorno che sta per rivoluzionare tutto
Perché preoccuparsi di sperimentare con neuromorfi disegni?
Una rete neurale in informatica è di solito rappresentato da un insieme di elementi in memoria — soprannominato assoni, dopo le loro controparti in neurologia — che essere aggiustato o ponderata, in risposta ad una serie di ingressi. Questi pesi sono detto di lasciare un’impressione, e proprio questa è l’impressione che (si spera) di una rete neurale può ricordare quando è stato chiesto di rivelare gli elementi comuni tra le entrate. Se questa impressione può essere trattato come “processo di apprendimento”, e quindi con una piccola rete neurale può essere addestrato a riconoscere le lettere dell’alfabeto dopo un’approfondita formazione.
Il Provisioning di un modello di rete neurale in una pura e ambiente digitale richiede una grande quantità di dati. Un fornitore di servizi cloud è in una posizione particolarmente vantaggiosa per capitalizzare su questo requisito, specialmente se è in grado di diffondere le applicazioni che fanno uso di machine learning. E ‘ per questo che Amazon e gli altri sono così eccitato in questi giorni in merito AI: categoria di attività, è il più grande consumatore di dati.
Ma si potrebbe avere notato qualcosa di esseri umani: Sono diventati piuttosto abile con poco cervello che hanno, senza l’uso di collegamenti in fibra ottica per i fornitori di servizi cloud. Per qualche ragione, il cervello, evidentemente, sono in grado di imparare di più, senza il raw sovraccarico di binario di archiviazione. In un mondo perfetto, una rete neurale sistema dovrebbe essere in grado di imparare solo ciò che un’applicazione ha bisogno di conoscere il contenuto di un video, per esempio, senza dover memorizzare ogni fotogramma del video in alta risoluzione.
In teoria, mentre un neuromorfi computer dovrebbe essere costruita su una struttura abbastanza complessa motore, una volta che la produzione di massa, potrebbe diventare un sorprendentemente semplice macchina. Non siamo in grado di esattamente crescere il cervello in vasi di vetro di sicurezza. Ma se abbiamo un plausibile la teoria di ciò che costituisce la conoscenza, siamo in grado di sintetizzare un sistema che rispetta le regole di quella teoria, forse produrre risultati migliori, utilizzando meno energia e che necessitano di un ordine di grandezza in meno di memoria.
Come la ricerca è iniziata nel 2012 per la costruzione di lavoro neuromorfi modelli, un team di ricercatori, tra cui la California NanoSystems Istituto presso la UCLA ha scritto il seguente [PDF]:
Anche se l’attività di singoli neuroni si verifica ordini di grandezza più lento (ms) che la velocità di clock dei moderni microprocessori (ns), il cervello umano può notevolmente superano di CMOS del computer in una varietà di compiti come il riconoscimento di immagini, in particolare nell’estrazione di contenuto semantico limitata o distorta informazione, quando le immagini sono presentato al ridotto drasticamente le risoluzioni. Queste capacità sono pensato per essere il risultato di entrambe le serie e in parallelo le interazioni attraverso una gerarchia di regioni del cervello in una complessa rete ricorrente, in cui le connessioni tra i neuroni, spesso portano i cicli di feedback.
Anche: Neuton: Una nuova, dirompente rete neurale quadro AI
Auto-sintesi
Veramente neuromorfi dispositivo, i suoi praticanti spiegare, dovrebbe includere componenti che sono fisicamente auto-assemblaggio. In particolare, si comporterebbe atomica interruttori di cui attacchi magnetici sarebbe ritrarre il ruolo di sinapsi, o le connessioni tra i neuroni. Dispositivi che includono questi interruttori si sarebbero comportati come se essi sono stati originariamente progettati per le attività che sta eseguendo l’, piuttosto che come general-purpose computer prendendo le loro istruzioni, programmi elettronici.
Un dispositivo del genere non sarebbe necessariamente essere affidato il compito di AI di applicazioni per avere un uso pratico. Immaginate un set di controller di robot su un pavimento di fabbrica, per esempio, di cui chip potrebbe riallineare la propria switch ogni volta che sentivano alterazioni nelle assemblee dei componenti i robot stanno costruendo. L’Internet delle Cose è supposto per risolvere il problema delle periferiche remote, che ha bisogno di nuove istruzioni per l’evoluto compiti, ma se tali dispositivi sono stati neuromorfi da progetto, loro si potrebbe non essere necessario l’IoT.
Neuromorfi ingegneri hanno evidenziato un deficit generale del computer nella progettazione di chip, che raramente preso in considerazione: Come la Legge di Moore ha costretto i progettisti di chip a stipare più di transistor su circuiti, il numero di interconnessioni tra gli altri transistor moltiplicato più e più volte. Da un punto di vista ingegneristico, l’efficienza di tutti i cavi utilizzati in tali interconnessioni degradate, con ogni generazione di chip. Tempo fa, abbiamo smesso di essere in grado di comunicare con tutte le porte logiche su una CPU durante un singolo ciclo di clock.
Era il progetto di un chip stati neuromorfi uno o due decenni fa, non avremmo bisogno di raddoppiare il numero di transistor su un chip ogni 12 a 18 mesi per conseguire il miglioramento delle prestazioni abbiamo visto, che sono sempre più piccoli e più piccoli, comunque. Se si considera ogni interconnessione come una sorta di “virtuale ” synapse”,” e se ogni sinapsi sono stati resi in modo separato, i trucioli potrebbero adattarsi al meglio i loro programmi.
Inoltre: Come IoT potrebbe trasformare i quattro settori di quest’anno
Esempi di neuromorfi progetti di ingegneria
Oggi, ci sono diversi accademici e commerciali esperimenti per produrre lavoro, riproducibile neuromorfi modelli, tra cui:
SpiNNaker [foto sopra] è un basso grado di supercomputer sviluppato da ingegneri con la Germania Jülich Centro di Ricerca dell’Istituto di Neuroscienze e Medicina, lavorando con il regno UNITO Avanzate Tecnologie di processori di Gruppo presso l’Università di Manchester. Il suo lavoro è quello di simulare le funzioni cosiddette corticale microcircuiti, anche se su un tempo più lento di scala, che avrebbe presumibilmente funzione quando sono prodotte. Nel mese di agosto 2018, Spinnaker condotta che si ritiene essere la più grande rete neurale di simulazione, che coinvolge circa 80.000 neuroni collegati da circa 300 milioni di sinapsi.
Intel è la sperimentazione di ciò che si descrive come un neuromorfi architettura del chip, chiamato Loihi (lo · EE · hee). Intel è stata riluttante a condividere immagini che rivelano elementi di Loihi architettura, anche se in base alle informazioni che abbiamo, Loihi sarebbe producibile mediante un modulo di 14 nm litografia tecniche di Intel e altri utilizzano oggi. Annunciato per la prima volta nel settembre 2017, e ufficialmente presentato il seguente mese di gennaio al CES 2018 dall’allora CEO Brian Krzanich, Loihi del microcodice sono dichiarazioni progettato specificamente per la formazione di una rete neurale. È progettato per implementare un spiking neural network (SNN), il cui modello aggiunge più cervello-come caratteristiche.IBM mantiene un Neuromorfi Dispositivi e Architetture di Progetto coinvolti con nuove sperimentazioni analogiche di calcolo. In un documento di ricerca, il team IBM ha dimostrato come la sua non-volatile phase-change memory (PCM) che ha accelerato il feedback o algoritmo di retropropagazione associati con reti neurali. Questi ricercatori sono ora al lavoro per determinare se il PCM può essere utilizzato per la modellazione sintetico sinapsi, sostituendo la RAM statica matrici in base utilizzato nella sua prima TrueNorth e NeuroGrid disegni (che non sono neuromorfi).
Inoltre: Perché Intel ha costruito un neuromorfi chip
Si pensa, quindi è
Alcuni dei più importanti neuromorfi la ricerca è iniziata nel 2002, in seguito ad un suggerimento da ingegneri con Fiat. Volevano un sistema in grado di rispondere a un driver di addormentarsi al volante. Prof. James K. Gimzewski di UCLA in California NanoSystems Istituto (CNSI), ha risposto ad investigare su un atomic interruttore può essere attivato dalla memoria dello stato del driver del cervello. Qui è dove Gimzewski ha iniziato la sua ricerca per un collegamento tra la nanotecnologia e la neurologia, per esempio, in misurato differenze di potenziale elettrico tra i segnali registrati dal cervello, la memoria a breve termine e quelli registrati dalla memoria a lungo termine.
Brilla una luce su quel link da una quota molto alta è la UC Berkeley Prof. Walter Freeman, che negli ultimi anni ha speculato circa il rapporto tra la densità del tessuto della corteccia cerebrale, e non meno di la coscienza di sé, il processo biologico mediante il quale un organismo può tranquillamente affermare che è vivo e di pensare. Freeman chiama questo tessuto di spessore all’interno della neocorteccia, che costituisce l’organo di coscienza neuropilo, e mentre Gimzewski design è molto più piccola scala, di non aver paura di prendere in prestito questo concetto per la sua sintetica controparte.
Nel 2014, Gimzewski presentato la sua ricerca, mostrando fotografie di una griglia di rame posti vicino micron scala, che sono stati trattati con una soluzione di nitrato d’argento. Una volta esposti a gassoso zolfo, argento atomi di forma nanofili da punto a punto della griglia — fili che si comportano, almeno abbastanza bene, come sinapsi. Secondo Gimzewski:
“Abbiamo scoperto che quando abbiamo cambiato la dimensione del rame posti. Si potrebbe andare… di più nanowire strutture, e ciò era dovuto al fatto che siamo in grado di evitare alcuni problemi di instabilità che si verificano su scala più grande. Così siamo in grado di rendere questi molto bello nanowire strutture. Qui si può vedere, si può avere molto lunghi e corti. E tramite questo processo di bottom-up, la fabbricazione, l’uso di tecnologia del silicio, [contrasto] top-down di fabbricazione utilizzando processo CMOS… siamo in grado di generare queste strutture… È l’ideale, e ciascuno di questi ha un sintetico sinapsi.”
Il CNSI squadra del processo di fabbricazione è in grado, Gimzewski crediti, di deposito, 1 miliardi di interconnessioni sinaptiche per centimetro quadrato. (Nel Marzo del 2017, Intel ha annunciato che è riuscito a stipare 100 milioni di transistor su un quadrato centimetri CPU morire.)
Inoltre: la Corea del Sud per investire più di $620 milioni di nanotecnologia R&D
Perché neuromorfi ingegneria richiede una nuova classe di macchina
Se hai mai giocato a scacchi contro un app, abbiamo giocato con uno dei primi e più elementari forme di AI: l’albero di decisione. Liberale uso della parola “decisione” finisce per fare questo ramo del suono troppo grandioso; in pratica, è estremamente semplice, ed è zero a che fare con la forma del cervello.
Diagramma di una minimax albero di decisione da Nuno Nogueira. Rilasciato attraverso Wikimedia Commons.
Essenzialmente, un albero di decisione algoritmo applica i valori numerici alla valutazione delle possibilità. Un programma di scacchi valuta tutte le possibilità che si possono trovare, per le mosse e contro-mosse e contro-contro-si muove bene anche in futuro, e sceglie il movimento con il miglior valore catastale. Un programma di scacchi può distinguere dagli altri attraverso il valore di punti attributi per l’esposizione o la cattura di un pezzo importante, o la chiusura di una importante linea di difesa.
La capacità di condensare queste valutazioni in un sistema automatizzato di modelli di risposta può costituire quello che alcuni chiamano almeno rudimentarily, una “strategia”. L’adattamento della strategia, al mutare delle circostanze, è ciò che molti ricercatori si sarebbe chiamata di apprendimento. Google DeepMind unità è un esempio di un progetto di ricerca che si applica puramente logica matematica per il compito di machine learning, tra cui questo esempio di modellazione risposte a più pazienti di cuore e polmone comportamento.
Anche: Google AI naviga in “gamescape” per conquistare la teoria dei giochi
Il rovescio della medaglia di determinismo
Qui è dove tutto perde il suo digitale-età abito e diventa più fisico, tattile, Jules Verne-esque ambiente: Abbiamo una tendenza a definire un “computer” come necessariamente digitale, e tutto ciò che esegue una operazione di calcolo come una componente digitale. Come neuromorfi scienza si estende nell’architettura dell’hardware di calcolo, come i processori, gli scienziati hanno già resa conto che ci sono elementi di neuromorphology che, come quantum computing, non possono essere modellati in modo digitale. Casualità, o altrimenti inspiegabili fenomeni, sono parte del loro modus operandi.
Una chiave di comportamento che, in sostanza, squalifica di un computer digitale da imitare organico o di una entità subatomiche, è il fattore che rende in modo affidabile in contabilità: il Suo determinismo. Il punto centrale di un computer digitale programma è quello di determinare il modo in cui la macchina deve funzionare, dato uno specifico set di input. Tutti i programmi per computer sono sia di tipo deterministico o sono difettosi.
Il cervello di un essere umano, o qualsiasi animale finora studiato, non è deterministica organismo. Sappiamo che i neuroni sono le principali componenti di memoria, anche se non sappiamo davvero come esperienze sensoriali e ingressi mappa stessi di questi neuroni. Gli scienziati hanno osservato, però, che le funzioni attraverso cui i neuroni “fuoco” (display picco di cariche elettriche) sono di tipo probabilistico. Che dire, le probabilità di un neurone di fuoco che, a parità di input (supponendo che potrebbe essere ri-creato), è un valore inferiore al 100%.
Né neurologi né i programmatori sono del tutto sicuro, perché il cervello umano può facilmente imparare a riconoscere le lettere quando si hanno così tanti caratteri diversi, o di riconoscere le parole quando le voci sono così distinti. Se si pensa al cervello come se fosse un muscolo, potrebbe essere lo stress che migliora e rafforza. Infatti, l’intelletto (i fenomeni derivanti dalla capacità della mente di ragione) potrebbe essere interpretato come un prodotto del cervello adeguare le informazioni dei suoi sensi di dedurre dal mondo che la circonda, letteralmente edificio nuovo materiale fisico per ospitare esso. Neurologi fare riferimento a questo adattamento come plasticità, e questo è uno dei fenomeni che neuromorfi ingegneri sono sperando per simulare.
Schema da Alish Dipani, rilasciato attraverso l’Intel Developer Maglia.
Un spiking neural network (SNN) vorresti realizzare questo. Nel cervello biologico, ogni neurone è collegato a una varietà di ingressi. Alcuni input producono eccitazione del neurone, mentre altri inibiscono — come il positivo e il negativo pesi in una rete neurale artificiale. Ma con un SNN, al raggiungimento di una certa soglia stato descritto da una variabile (o forse con una funzione), il neurone è stato punte, letteralmente, in riferimento alla sua uscita elettrica. Lo scopo di un SNN modello è quello di trarre delle conclusioni da questi picchi, per vedere se un’immagine o un modello di dati innesca un ricordo.
Inoltre: Questo milioni-core supercomputer è ispirato al cervello umano
Che cosa rende un neuromorfi chip analogici?
C’è una scuola di pensiero che sostiene, anche se una sequenza di numeri non è realmente casuale, così a lungo come il disegno del dispositivo di inferenze che i dati non sono informato, non importa comunque. Tutti i modelli di rete neurale sviluppato per deterministico dei sistemi di operare in condizioni di questa presunzione.
Scott Fulton III
La contro-argomentazione è questa: Quando una rete neurale è inizializzato, i suoi “pesi” (le determinanti degli assoni’ valori) deve essere casuale. Nella misura in cui è possibile per un motivo casuale simili o esatto per altro, che la misura deve essere attribuito un pregiudizio, e che il pregiudizio si riflette negativamente su qualsiasi risultato finale.
Anche: Nuovo anno, nuove reti di ricercatori ottimizzare AI
Perché vera casualità questioni
C’è anche questa: componenti Elettromeccanici può essere in grado di introdurre il non-deterministico elementi che non possono essere simulati all’interno di un puramente ambiente digitale, anche quando abbiamo messo il paraocchi. I ricercatori della Purdue University stanno sperimentando magnetico giunzioni tunnel (MTJ) — due strati ferromagnetici che racchiude un ossido di magnesio barriera. Una corrente elettrica può prendere in giro una carica magnetica in salto attraverso la barriera tra gli strati. Un salto di qualità potrebbe essere analogo a un picco.
Un MTJ un comportamento che ricorda di un transistor, prendere in giro gli elettroni attraverso un varco. In questo caso, MTJ consente una divisione del lavoro in cui la ricezione ferromagnetici strato svolge il ruolo di assone, e il tunnel tra ritrae una sinapsi.
Il rapporto che ne deriva è veramente meccanica, dove il comportamento delle spese può essere descritto come neuroni, utilizzando probabilità. Tanti errori che sono il risultato di un’inferenza processo che coinvolge MTJs, o componenti, come loro, non saranno imputabili a bias che non può essere aiutato grazie al determinismo, ma invece di errori che possono essere corretti con la diligenza adeguata. Per l’intero processo di essere affidabile, il inizializzato valori mantenuto da neuroni devono essere veramente randomizzati.
Inoltre: l’intelligenza Artificiale è un problema di probabilità
Il caso contro neuromorfi
Naturalmente, neurologi e biotechnicians minimizzare qualsiasi neuromorfi modello di calcolo di arresto di simulazione reale l’attività del cervello. Alcuni si spingono fino a dire che, nella misura in cui i componenti di un neuromorfi di sistema sono incomplete, qualsiasi modello di calcolo che produce è del tutto fantastica.
Dr. Gerard Marx, CEO di Gerusalemme-based società di ricerche di MX Biotech Ltd., suggerisce che il punto di vista prevalente del cervello come una sorta di infinito, una foresta pluviale tropicale, dove gli alberi di neuroni swing da sinapsi in aperta debole, è un carico di una fesseria. Manca da tale modello, Marx, è una sostanza che si chiama matrice extracellulare (nECM), che non è un gelatinoso, neutro mare, ma piuttosto un agente attivo nel cervello del processo di richiamo.
Marx postula che la memoria nel cervello biologico richiede neuroni, il nECM, oltre a una varietà di droganti come neurotrasmettitori (NT) rilasciata nel nECM. Processi elettrochimici svolgerà tra questi tre elementi, le reazioni chimiche da cui non solo sono stati registrati, ma sono percepiti come strettamente allineati con emozione. Gli effetti fisiologici associati con il richiamo di una memoria (ad esempio, aumento della pressione sanguigna, più pesante respirazione) trigger effetti psichici (agitazione, ansia, paura, gioia) che a sua volta avere un effetto di rinforzo sulla memoria stessa. Scrive Marx con il suo collega Chaim Gilon [PDF]:
Ci troviamo in posizione inversa del ragazzo che gridò: “L’imperatore non ha vestiti!” esclamiamo: “non Ci sono “nudo neuroni!” Sono avvolto in nECM, che è multi-funzionale, in quanto fornisce il supporto strutturale è un idrogel attraverso il quale i liquidi e piccole molecole diffusa. Si esegue anche come “memoria ” materiale”, come delineato dal tripartito meccanismo che identifica NTs come trasduttori di emozioni.
Questo non è per dire neuromorfi computing non può produrre benefici. Ma se la teoria è che essa produrrà maggiori benefici senza prendere tutte le altre parti del cervello in considerazione, quindi, di Marx, in posizione di, suoi praticanti dovrebbero smetterla di far finta di essere cerebrali chirurghi.
Anche: aiuto-Memoria: la Realtà Virtuale potrebbe presto aiutare a stipare per un test
Quando neuromorfi potenziale potrebbe spike
In qualsiasi momento, nella storia, c’è un limite teorico alla potenza di elaborazione di un supercomputer — un punto dopo di che, aumentando il carico di lavoro non produce più, o non è meglio, i risultati. Tale limite è stato spinto in avanti a singhiozzo dai progressi dei microprocessori, anche mediante l’introduzione di Gpu (precedentemente solo processori grafici) e di Google di design per TPUs. Ma ci può essere un limite al limite dell’estensione, come la Legge di Moore funziona solo quando la fisica ti consente di scala più piccola.
Neuromorfi ingegneria punti per la possibilità, se non ancora di probabilità, di un grosso balzo in avanti nelle prestazioni, mediante una modifica radicale di ciò che significa per dedurre informazioni da dati. Come i computer quantistici, si basa su una forza della natura, non riusciamo ancora a comprendere: In questo caso, il potere di rumore. Se tutte le ricerche paga, supercomputer come li percepiamo oggi può essere reso del tutto obsoleti in pochi anni, sostituito dal server sintetica, auto-assemblaggio di neuroni che può essere nascosto nel corridoio armadi, liberando lo spazio occupato dalla mega-scala di centri di elaborazione dati, di dire, di generatori solari.
Precedente e relativa copertura:
Cos’è il deep learning? Tutto quello che devi sapere
Il lowdown su deep learning: da come si relaziona con il più ampio campo di machine learning a come iniziare con esso.
Che cosa è l’IA? Tutto quello che devi sapere
Un esecutivo a guida di intelligenza artificiale, machine learning e generale AI alle reti neurali.
Ciò che un computer quantistico è, e per questo ha bisogno di essere più
Sarebbe il preludio di una nuova media di calcolo, la capacità di sfruttare le inspiegabili poteri di particelle subatomiche di cancellare le barriere del tempo nella risoluzione di incalcolabile problemi. La tua parte perché ciò accada può essere semplicemente quello di convincere te stesso che il nero è bianco e su è giù.
Che cosa è l’IoT? Tutto quello che devi sapere
L’Internet delle Cose”, ha spiegato. Ciò che l’IoT è e dove sta andando avanti.
Scopri di più — Dalla CBS Interactive Network:
AI chip unicorno che sta per rivoluzionare tutto
Perché Intel ha costruito un neuromorfi chip
Un neuromorfi, la memoria-centric chip architetturadiplomi ascesa, la caduta e ascesa del supercomputer nel cloud eraThe profonda-learning rivoluzione: Come capire il funzionamento del cervello ci permetterà di sovralimentare AI TechRepublicIncontrare la bizzarra D&D creature fatte da una rete neurale CNET
Altrove:
Un Raro sguardo nella IBM per il Nord Vero Neuromorfi Chip da Nicole Hemsoth, La Prossima Piattaforma
IBM, Intel Ripensare il Processore Disegni di Ospitare AI Carichi di lavoro da parte di Agam Shah, Il Nuovo Stack
L’HBP Neuromorfi Piattaforma di Calcolo di linee Guida, di un costante aggiornamento delle risorse pubblicati tramite GitHub
Argomenti Correlati:
Intelligenza Artificiale
La Trasformazione Digitale
CXO
Internet delle Cose
L’innovazione
Enterprise Software