Come Amazon DeepLens cerca di ricollegare il vecchio web con la nuova IA

0
96

Zero

Ogni Amazon Echo, di Casa Google, Sonos, o un dispositivo simile in casa tua che riconosce la tua voce, e ogni smartphone attraverso il quale hai mai parlato con Siri, Alexa, o Cortana, ha aperto e canale diretto ai server da qualche parte sul back-end che sono in esecuzione di intelligenza artificiale. In volume, la categoria di applicazione di intelligenza artificiale che si trova in corrispondenza o vicino alla parte superiore della maggior parte attivamente distribuita elenco non è decisionali o di previsione, ma il riconoscimento vocale. Come larghezza di banda diventa più abbondante e le funzioni del cloud più accessibile, oggetto di riconoscimento da video o fotografie non sarà troppo dietro per molto tempo.

Inoltre: che Cosa è AWS DeepLens?

Nel novembre del 2017, Amazon Web Services ha lanciato un esperimento per determinare quanto presto l’oggetto del riconoscimento può diventare sia valida e affidabile. Come Eco, DeepLens è un’amazzone dispositivo adatto a casa di distribuzione. A differenza di Eco, è un Intel Atom X5 basato su Ubuntu Linux-powered, computer quad-core, una fotocamera collegata, il cui scopo è la scansione in cerca di qualcosa o qualcuno in particolare. Dietro il dispositivo, sul lato server del sistema, Amazon server di eseguire algoritmi di scansione in entrata contenuto del video, in cerca di qualcosa di familiare: Ogni parte dell’immagine che il suo database possono avere già i tag e identificati.

Immaginate quale AI-powered fotocamera potrebbe fare

171129-andy-jassy-re-invent-2017.jpg

“Crediamo che sarete in grado di iniziare l’esecuzione del tuo primo apprendimento profondo, computer vision modello in dieci minuti, dal momento che hai unboxed la fotocamera”, ha detto AWS CEO Andy Jassy, annunciando il prodotto durante la sua società re:Inventare conferenza nel novembre del 2017.

“È possibile programmare questa cosa di fare quasi qualsiasi cosa si possa immaginare”, ha continuato Jassy. “Per esempio, si può immaginare la programmazione della fotocamera con un computer vision modelli, in cui, se si riconosce una targa in entrata nel tuo vialetto, si aprirà la porta del garage. Oppure si potrebbe programma per inviare un avviso quando il vostro cane ottiene sul divano.”

amazon-deeplens.jpg
(Immagine: Amazon)

Come ti ho preso con me dicendo in ZDNet prima, che la parola “immaginare” può essere il tripwire. “Imagine” è la parola fornitori di richiamare quando hanno bisogno di sfruttare la propria mente per riempire alcune lacune nei propri prodotti. DeepLens è lungi dall’essere pronta per la vendita al dettaglio dei consumatori del mercato. Per fortuna, oltre che pericoloso parola “immagini”, non pretende di essere.

Amazon palo

DeepLens è un esperimento, che per $249 è possibile partecipare in voi stessi, se avete qualche esperienza di formazione convolutional reti neurali (CNNs, e no, non l’ho inventato sul momento). È un esperimento importante, da Amazon a lato del sistema e, in particolare, come uno sforzo per rendere il cloud-based AI servizi redditizi.

Nel mese di ottobre 2017, Amazon abilmente inserito un portico anteriore della fotocamera, come parte della release del suo Amazon consegna della Chiave del sistema. Poi, in febbraio, Amazon ha acquisito Anello di un’impresa che aveva già prodotto un campanello basato su telecamera che avvisi gli utenti attraverso il web che le persone sono a loro porte. Ma DeepLens non è solo il portico anteriore. Il suo obiettivo sembra… beh, più profonda: Per stabilire le connessioni che legano il web, in un’epoca in cui la digitazione sarà l’attesa metodo di comunicazione con il motore di ricerca.

Anche: AWS prende DeepLens, una macchina di apprendimento fotocamera, GA

Google è diventato il campione della ricerca sul web quando ha trovato un modo per raccogliere entrate provenienti da ogni query — attraverso la pertinenza delle parole chiave per la pubblicità basata sugli. Come più ricerche e operazioni simili diventare condotte utilizzando la voce e, infine, il video-che consumano ordini di grandezza maggiore larghezza di banda rispetto al testo — il costo di elaborazione delle transazioni aumenta. E poiché la parola chiave annunci di mercato che da tempo è diventato mercificati, alzare i tassi di interesse non è più un’opzione.

Se la parola chiave annunci di mercato crolla, il web, come sappiamo, andrà via. Così il tempo per scoprire la prossima generazione di importanti operazioni redditizie è ora. DeepLens venture al di là del territorio di Eco, nella travagliata, embrione di un nuovo e in gran parte indeterminata di mercato, con tutta la tenacia di un’organizzazione con la capitale e i mezzi per fare uno o due passi falsi lungo la strada… se dà Amazon possibilità di sfruttare la crescente competenza nel profondo di apprendimento angolo di una nuova industria.

Immaginate un mondo, Amazon potrebbe essere dicendo a sé stessa, dove Google non è già l ‘ 85 per cento della strada verso qualunque esso sia, è il sogno da realizzare.

Cosa DeepLens effettivamente

Si può avere preso uno o due dei DeepLens unboxing cerimonie acquisiti e condivisi su YouTube, e ancora si chiedeva che cosa fa di qualcuno che fare con esso dopo che è collegato alla rete elettrica?

181121-deeplens-sample-apps.jpg

C’è una manciata di le applicazioni di esempio, uno dei quali è stato ispirato da un episodio della serie televisiva della HBO “Silicon Valley”. Si tenta di individuare un hot dog, sulla base di dati già raccolti da aver analizzato le foto e i video di hot dog. (Quest’ultima frase dovrebbe dirvi tutto quello che devi sapere su DeepLens disponibilità per il prime time.)

Anche: Google gare contro AWS, Microsoft per portare ai per gli sviluppatori

Ci sono pochi altri: Uno che stima il numero di gradi di inclinazione per la testa di una persona; un altro che tenta di discernere le immagini di gatti immagini di cani in un gruppo di entrambi; uno che tenta di riconoscere le azioni associate con circa tre dozzine di attività, tra cui il taglio di alimenti con un coltello e suonare il tamburo; ed è interessante notare come uno che tenta di applicare lo stile artistico di un dipinto è studiato per una reale immagine del mondo.

julien-simon-papis-conference-may-2018.jpg

In una macchina di apprendimento conferenza a Londra nel mese di aprile 2018, AWS technical evangelist Julien Simon dimostrato uno dei DeepLens’ applicazioni di esempio, l’identificazione di sedie, persone, e le bottiglie nella stessa stanza. Ciò che la demo è riuscito a rilevare è che, almeno al momento, DeepLens non fa molto. Quando un partecipante messo un frullato di proteine bottiglia davanti alla telecamera, DeepLens sono voluti solo pochi secondi per identificare correttamente una bottiglia.

deeplens-identifies-a-bottle.jpg

“Evviva, apprendimento profondo!”, ha dichiarato Simon, anche se non troppo forte. “Che cosa, ha solo 20 cose da scegliere. Quindi è improbabile che si sta andando a dire, ‘Pecore’, ma non si sa mai… certo, quello che vuoi fare è quello di addestrare il vostro modello. Si desidera eseguire il proprio progetto… questa è l’idea, davvero: permettere alle persone Di treno e costruire applicazioni divertenti.”

“Per l’IA in generale, un sacco di progetti all’inizio soffre di una scarsità di dati”, ha osservato il mio amico e collega e compagno di ZDNet collaboratore, Ross Rubin. “Come si dispone di più gli sviluppatori di portare più scenari per la tabella, sottostante la tecnologia può migliorare.”

Vero consumatore-tipo di intelligenza artificiale, al livello richiesto per identificare in modo affidabile in diverse classi di oggetti collettivamente (invece di uno solo di classe, come le facce delle persone) deve ancora essere sviluppato. Amazon è veramente sperimentando qui è la nozione che i suoi modelli di consumo può essere applicato a persone che possono sviluppare queste capacità, che alla gente sarebbe felice di pagare per la possibilità di future applicazioni fattibile.

Anche: Formula 1 sceglie AWS ufficiale cloud, machine learning provider

“Chiaramente, molti progetti open source iniziare con il germe di un’idea, e funzionalità di base nei primi giorni”, ha aggiunto Rubin. “Che attirano l’interesse e migliorare, e in molti casi, diventare competitivi o best-in-class nel corso del tempo.”

Sotto la superficie, ma non molto lontano al di sotto, DeepLens sperimentale toolkit chiaramente orientata per i programmatori di alto livello abituato a basso livello di operazioni con riga di comando di Linux-based clienti. Può sembrare più come un high-end, motion tracking add-on per una console di gioco, ma in pratica è molto di più, come l’Altair 8800, nel 1975 — un tostapane dimensioni casella di elemosinare qualcosa di nuovo da fare.

È veramente open source?

Per la maggior parte, le librerie software utilizzati nella creazione di DeepLens software è open source. Il fatto di non limitare le applicazioni si produce con esso, per essere open source. A seconda della licenza, i prodotti commerciali possono essere costruiti con l’open source alla base. Uno sguardo sul DeepLens licenza rivela che Amazon limita i suoi sviluppatori a utilizzare DeepLens “per il personale educativo, la valutazione, lo sviluppo e testing, e non il processo di produzione dei carichi di lavoro.” Che l’ultima parte suggerisce DeepLens non possono essere utilizzati come parte di qualcun altro prodotto commerciale di sviluppo.

La licenza non andare così lontano come a sottintendere che Amazon ha, de facto, la proprietà o il diritto di prelazione, più di qualsiasi sviluppatore può creare. Tuttavia, suggerisce che c’è poco altro che uno sviluppatore può fare con esso, oltre a sperimentare, limitando le sue opzioni commerciali a negoziare con Amazon. I partecipanti al DeepLens Sfida gare che hanno visto i loro lavori pubblicati su GitHub, attualmente il più importante open source canale di distribuzione.

Non è Google che fa qualcosa di simile?

Un mese prima di Amazon 2017 annuncio con il proprio Google ha dichiarato l’esistenza di un progetto chiamato Google Clip, utilizzando un dispositivo ritiene che è abbastanza piccolo per essere portabile. (Forse la notte di Halloween, o per spaventare i vostri bambini a credere che sei parte di Dalek.) Rispetto a DeepLens, le Clip non è un AI sperimentale toolkit, ma piuttosto un dispositivo che utilizza il rilevamento del movimento, insieme con quello di Google si qualifica come AI, per catturare ciò che rileva di essere solo momenti giusti, senza bisogno di interazione umana. Clip è limitata a questo solo scopo, ma mantiene Google e la discussione di AI in un Internet delle Cose.

Cosa DeepLens è Davvero Fatto Di

Nel complesso, il DeepLens il sistema è composto da processore Intel Atom / computer Ubuntu sul lato client, l’ampia AWS rete di AI e servizi sul lato server, e di un meno-che-insignificante pezzetto di filo e incollare in mezzo chiamato internet. L’intero sistema è necessaria per DeepLens per completare ogni singola attività-che per ora cade sotto la categoria di identificazione di oggetti fermi o in movimento video.

Anche: Amazon piattaforme, gli ecosistemi e la velocità di araldo di una voce-prima trasformazione

Lo scopo del cliente-lato del dispositivo è quello di raccogliere il video i dati necessari per il set di dati molto grandi richiesto per formare il sistema su come riconoscere gli oggetti. Da “riconoscere”, voglio dire, per essere in grado di bandiera di un pattern di pixel adiacenti in mezzo a una foto o un video in movimento come essere abbastanza simile a un modello che è stato osservato prima. E da “oggetto” ironia della sorte, so di essere molto soggettiva. Ciò che il sistema si caratterizzano come un “oggetto” è un modello definito da regole che gli algoritmi di intelligenza artificiale avrà determinato per se stessi. In altre parole, non riesco a spiegare cosa rende un oggetto, un “oggetto” che non sia la presunzione che il sistema ha identificato le caratteristiche che, per i suoi fini, si qualificano come somiglianze. Pensate a come un bambino impara a imitare i suoni dei suoi genitori fare (senza Amazon aver stampato un manuale per il suo primo) e si otterrà qualcosa di oggettivamente simili a il punto che sto cercando di fare.

Il fatto che DeepLens’ hot dog app di riconoscimento è corretto, in quanto spesso, come è, è un po ‘ impressionante. Ha già, in misura ragionevole, stati addestrati. Più precisamente, l’app è già stato alimentato insiemi di dati molto grandi (per ora, che il termine per loro), tutte le app trust per rappresentare la stessa cosa. I suoi algoritmi sono individuate correlazioni, che servono come il suo best-guess-le stime per il perché di tutte queste immagini includono la stessa cosa. Il test è se queste correlazioni sono abbastanza significative per l’applicazione efficace di conoscere un caldo cane quando si vede uno.

Cosa DeepLens ha bisogno per fare qualcosa di serio

Di semi di interesse per il dispositivo, AWS ha dato via la sua prima partita per selezionare gli sviluppatori che frequentano il suo re:Inventare 2017 conferenza. C’, hanno potuto partecipare alla prima sessione, dedicata a come programmare la cosa.

“Probabilmente la prima cosa di cui abbiamo bisogno è di essere in grado di sperimentare in the cloud”, ha detto AWS’ Julien Simon. “Ovviamente, anche se si desidera distribuire a bordo, sulla fotocamera, qualsiasi tipo di sensore, droni, ecc…. abbiamo ancora bisogno di lavorare con insiemi di dati nel cloud.”

Inoltre: Perché Amazon home i robot non sono un tratto: Tutte le infrastrutture, dell’ecosistema via AWS è a posto

Il cuore del DeepLens sistema in cloud, per mancanza di qualsiasi altra sigla, la CNN. Si può trascorrere alcuni volumi definizione di questa frase (credetemi, ho provato), ma posso invece dare un paio di immagini di base che ti danno il senso dell’idea.

neural-net-02tkm11.jpg
(Immagine: Scott Fulton III)

In informatica, una rete neurale è un modello per la rappresentazione di valori basato su una vecchia teoria (che, ironia della sorte, neurologi sostengono poiché è stato dimostrato sbagliato) su come il cervello impara a riconoscere i modelli. Il modello coinvolti associazioni di categoria, la teoria che descrive le relazioni che vengono memorizzati. Tali associazioni sono fisicamente rappresentato da neuroni, come prese elettriche catena collegata con dei fili. Come associazione cresce più forte, il suo filo è “tirato” se, da un rappresentante del peso che dà priorità quando il cervello cerca di ricordare e ricordare qualcosa. Che il peso è tirando — sostanza fisica dell’associazione-è chiamato un assone.

Così un set di dati, come ad esempio un’immagine o un insieme di fotogrammi da un video, si impone in sequenza su rete neurale. Come alcune impressioni che vengono fatte più frequentemente, il loro rappresentante pesi crescere più pesante, e i loro assoni sono una priorità più alta.

Anche: Alexa Business probabilità di vincere in smart office, leva AWS, Eco, gli sviluppatori e consumatori

Il convolutional parte (la “C” parte della frase, che avrà un suono particolarmente impressionante se si furono pronunciate da James Earl Jones) è, di fatto, letteralmente, contorto. Ha due contemporaneamente correggere significati, uno dei quali potrebbe essere la possibilità di avere contemporaneamente due corretti significati. Neurologi percepire un modello in cui le associazioni sono intrecciati insieme come un rotolo di gelatina o la spirale dei filamenti di DNA. Come questi contorti fili esperienza di diversi livelli di elaborazione, nel tempo le proprietà e le caratteristiche delle cose che il cervello percepisce (dimensioni, colore, forma) può essere reale, fisica, proporzioni-una vera e propria maniglia su cose che sono delle somiglianze. In questo modo, quando il cervello si attivano un segnale che è essenzialmente categorico (per esempio, una ricerca per tutte le cose più grandi di un futuro), è possibile richiamare gli oggetti appartenenti alla classe stessa facilità con cui si può ricordare ogni singolo oggetto. Almeno, in teoria, supponendo che si crede.

In informatica, un convolutional modello è quello in cui le tabelle con i valori possono essere recepite in lunghe sequenze, e/o viceversa. CNN effettivamente l’ultimo ad ottenere il primo.

I componenti software di DeepLens

Quando si gioca con DeepLens, si sta sperimentando con i meccanismi con cui questo modello viene prodotto. Qui sono alcuni degli strumenti software devi utilizzare come parte delle DeepLens:

TensorFlow — I principali framework open source per l’automazione di distribuzione di azioni e di eventi vari strati in DeepLens’ insiemi di dati. Un tensore è una sequenza di valori in uno spazio con un numero qualsiasi di dimensioni (“a” n “dimensioni”). I valori insiti in un video si tradurrebbe in un 2D tensore. Un tipico linguaggio di programmazione assegna valori individuali simboli o unità di memoria; con TensorFlow, si distribuiscono le azioni su aree. Amazon SageMaker — Annunciato durante la stessa settimana, come DeepLens, SageMaker è AWS’ un servizio cloud-based per l’automazione di formazione di modelli in un profondo sistema di apprendimento. L’hot dog app di riconoscimento era già formato; utilizzare SageMaker per creare un nuovo modello per il rilevamento di un oggetto diverso, o forse una categoria di oggetti con caratteristiche similari. Questo è un prodotto Amazon a se stessa, che l’utente disponga di un significativo investimento in servizi cloud AWS (ah, questo è il problema!), compreso di archiviazione S3 secchi. AWS Lambda — Amazon funzione-come-una-piattaforma di servizio, utilizzando quello che molti chiamano un “serverless” modello (non si pensi che il server quando si utilizza la funzione). Di per sé, Lambda corre funzioni sui propri server, e visualizza i risultati come soluzioni. Molti di DeepLens’ le funzioni necessarie sono fornite al sistema, come le funzioni Lambda. AWS Greengrass , Perché è impraticabile per l’intera macchina di apprendimento operazione per i video di essere trattati in cloud AWS ideato un sistema per le funzioni Lambda per essere trasmessa ai dispositivi remoti, ad esempio, Internet delle Cose, dei componenti e eseguiti, a “bordo.” Intel Atom X5 box è uno di questi componenti. Con Greengrass, una funzione Lambda è ancora “consumato” il modo in cui sarebbe se ci sono stati elaborati nel cloud di Amazon, tranne che si tratta di essere trattati a livello locale.

Un altro bordo

Quando AWS’ Simon si riferisce a “bordo”, ha significa che il bordo esterno di un sistema di comunicazione che è la più vicina ai suoi messaggi. Come i lettori abituali di ZDNet può ricordare, non c’è davvero uno spigolo (che rende l’uso di “il” in questo contesto un po ‘ presuntiva). Qui, quello che Simon si riferisce è il DeepLens dispositivo è in grado di pre-processo, purificare e trasformare i dati video in una certa misura, prima di caricare AWS’ server.

Se la larghezza di banda erano onnipresenti server cloud e infinitamente potente, il DeepLens dispositivo potrebbe essere poco più di una calcolatrice tascabile con un teleobiettivo. Si potrebbe inviare lo streaming video direttamente nel cloud, e ci sarebbe la sua risposta, come se le immagini in esso contenere un hot dog o non, all’interno di un secondo o due.

In un tale contesto, non ci sarebbe bisogno di un “margine.” Tutti i trattamenti che possono avvenire in cloud, sul back-end.

Anche: Alexa per il Business: 10 punti chiave

Se hai mai caricato un video su YouTube, sai bene, perché questo non è ancora possibile. La larghezza di banda non esiste ancora, non appena in tempo reale per il caricamento dei video, ma, in aggiunta, l’analisi immediata.

Così DeepLens deve avere qualche potenza di elaborazione accanto al suo utente, a quello che Simon e Amazon percepire come il bordo. Ora che molte persone, me compreso, hanno completamente funzionale Linux computer nelle loro tasche, si dovrebbe scioccare nessuno che DeepLens’ Intel Atom X5 dispositivo è completo di un computer in un fattore di forma vicina a quella di un disco rigido esterno o un libro rilegato.

Il DeepLens fattore di forma

Il DeepLens dispositivo comunica con il suo utente (che pretende di essere uno sviluppatore esperto) utilizzando un “terminale” — una riga di comando di Linux. Mentre si potrebbe utilizzare un front-end grafico o un web browser, Intel non si assume lo sviluppatore ha già queste cose sul suo PC comunque, con la quale si può già comunicare con AWS, e accedere al DeepLens Console. Aggiungendo un altro browser per il mix sarebbe ridondante.

deeplens-tech-specs.png

Con il digitale in tempo reale video, non c’è ancora un modo per trasmettere i dati, memorizzare, analizzare abbastanza veloce per i risultati di tale analisi per essere ancora valido. Ecco perché il dispositivo Intel è davvero un grande computer.

Se già si dispone di un computer, si può essere se stessi chiedendo, perché non AWS semplicemente vendere la fotocamera come unità periferica del PC, e distribuire l’applicazione di intelligenza artificiale per il web? Certo che è fattibile. Ma con il mercato dei PC si abbassa, e Windows 10 generare circa tanto consumatore entusiasmo, come un colpo di influenza, la prima vera generazione di consumer-oriented rete neurale-in base AI sarà anche bisogno di essere qualcosa che cattura i consumatori’ il cuore che la loro mente.

È DeepLens intelligente?

“Intelligenza artificiale” è in gran parte soggettiva termine. Come ho definito negli ultimi decenni, si ha una chiara linea di demarcazione che può essere spostato come persone o macchine di ottenere sia generalmente più intelligente o andare in altro modo.

Per visualizzare l’intelligenza artificiale è un meccanismo di alcun tipo per il rendering di un risultato il cui esito appare ragionevole, una persona, di avere richiesto l’intelligenza. Mettere un altro modo, se qualcosa appare come il prodotto di una persona intelligente, ma non è il lavoro di qualsiasi entità vivente, il suo medico è probabile che sia AI.

Anche: AWS lancia la nuova funzionalità di sicurezza per evitare accidentali S3 perdite di dati

Al suo inizio, il riconoscimento vocale è stato designato l’IA categoria. Nel corso del tempo, diventa sempre più un luogo comune, gli esseri umani attributo di meno e meno intelligenza artificiale, o in caso contrario, il concetto di macchine riconoscere la tua voce e rispondere ragionevolmente. In un certo senso, è ragionevole parte che funziona contro l’IA, per la diffusione della mistica da esso e ad esporsi in più come il prodotto di alta intelligenza che il produttore di.

Ma Ross Rubin ritiene che la mistica non va più via. Ti basta trasferimento al turno successivo di sorprendente, se non ancora funzionale, applicazioni. Oggi, Apple e altri, per sperimentare l’esame di volti di telespettatori per rilevare le espressioni che potrebbero rivelare i loro veri sentimenti circa i programmi che state guardando. Rubin ha preso per il passo successivo, nel concepire un modo tale applicazione potrebbe essere fatta pertinenti per un singolo utente.

“Qualcuno che sta dando una presentazione in una conferenza,” Rubin progetti”, potrebbe essere in grado di ottenere un feedback in tempo reale, forse in un modo anonimo: ‘Ehi, amico, sei losinj’ ’em! Questa idea che hai proposto è sinkin’ come un rock!’ O, ‘Hai sicuramente toccato qualcosa che c’è una certa sensibilità in questo gruppo.’ Che potrebbe essere prezioso feedback in un’organizzazione.”

Quando un prodotto di consumo tratte dalla DeepLens, infine, si rende disponibile, da Amazon o chi la attraversa quel traguardo per primo, e si fa una chiamata di giudizio che la persona vestita come un lettore metro nel giardino di casa non è in realtà un lettore metro, il suo successo arresto sarà probabilmente fare notizia e guadagnare 20 secondi’ parlare al telegiornale della sera. Cinque anni più tardi, quando questi tipi di eventi sono molto comuni, gli algoritmi responsabile per queste corrette chiamate di giudizio, non può più essere generalmente considerato di intelligenza artificiale, ma affidabile e pratica.

Scopri di Più — Dalla CBS Interactive Network

Cos’è il deep learning? Tutto quello che devi sapere da Nick Heath, Intelligenza Artificiale, Google riflette le carenze di apprendimento automatico da Tiernan Ray, Intelligenza Artificiale AWS annuncia SageMaker Modalità Locale per la costruzione AI localmente da Stephanie Condon, Tra le Righe

Altrove

Una Immersione Profonda su AWS DeepLens da Janakiram MSV, Il Nuovo Stack AWS Mette Più Muscolo Dietro la Macchina di Apprendimento e di Database da Jeffrey Burt, La Prossima Piattaforma IA su edge ottiene a NUOTARE come i dispositivi smart vomitare inutilizzato dati da Kurt Marko, Diginomica

Precedente e relativa copertura

Che cosa è l’IA? Tutto quello che devi sapere

Un esecutivo a guida di intelligenza artificiale, machine learning e generale AI alle reti neurali.

Cos’è il deep learning? Tutto quello che devi sapere

Il lowdown su deep learning: da come si relaziona con il più ampio campo di machine learning a come iniziare con esso.

Che cosa è macchina di apprendimento? Tutto quello che devi sapere

Questa guida spiega in cosa consiste la macchina di apprendimento, di come esso è legato all’intelligenza artificiale, come funziona e perché è importante.

Che cos’è il cloud computing? Tutto quello che devi sapere su

Un’introduzione al cloud computing destra, dalle nozioni di base fino a IaaS e PaaS, ibrido, public e private cloud.

Argomenti Correlati:

Amazon

La Trasformazione Digitale

CXO

Internet delle Cose

L’innovazione

Enterprise Software

0