
Google spera che la sua Tensor2Tensor biblioteca contribuirà ad accelerare profonda-learning di ricerca.
Immagine: Google
Google ricercatori hanno creato quello che chiamano “un modello per imparare tutti” per la formazione AI modelli in diversi compiti di utilizzo di più tipi di dati di training.
I ricercatori e AI-concentrato di Google Brain Team hanno confezionato il modello lungo con altri strumenti e componenti modulari nella sua nuova Tensor2Tensor biblioteca, che, nella speranza di contribuire ad accelerare profonda-learning di ricerca.
Il quadro promette di prendere parte del lavoro di personalizzazione di un ambiente per consentire profonda-modelli di apprendimento a lavorare in vari compiti.
Come si nota in un nuovo documento chiamato ‘Un modello per imparare tutti’, deep learning ha avuto successo nel riconoscimento vocale, classificazione di immagini e la traduzione, ma ogni modello deve essere regolata in modo specifico per il compito a portata di mano.
Inoltre, i modelli sono spesso addestrati a compiti dalla stessa “dominio”, come le attività di traduzione addestrati con altri compiti di traduzione.
Insieme, questi fattori di rallentare profondo di apprendimento e di ricerca anche non seguire come lavora il cervello umano, che è in grado di prendere lezioni da una sfida e la loro applicazione alla risoluzione di una nuova attività.
Il modello creato è formato su una varietà di compiti, tra cui il riconoscimento delle immagini, le attività di traduzione, immagini con didascalie, e il riconoscimento vocale.
Essi sostengono che l’unico modello che contemporaneamente possono imparare un certo numero di compiti da più domini e che il modello è in grado di trasferire la conoscenza. È in grado di imparare da attività con una grande quantità di dati di training e di applicare tale conoscenza per le attività in cui i dati sono limitati.
Il Tensor2Tensor biblioteca, che è mantenuto da Google Cervello, i ricercatori e gli ingegneri, offre una serie di strumenti open-source per la formazione profondo-modelli di apprendimento in TensorFlow. La biblioteca si impegna a massimizzare l’idea di larghezza di banda e ridurre al minimo l’esecuzione di latenza”, secondo la sua descrizione su GitHub.
“T2T facilita la creazione dello stato dell’arte dei modelli per un’ampia varietà di ML applicazioni, come la traduzione, l’analisi, l’immagine di sottotitolazione e di più, consentendo l’esplorazione di varie idee molto più velocemente possibile”, spiega Łukasz Kaiser, un ricercatore di Google Cervello della Squadra e autore del libro.
Esso include anche una libreria di set di dati e modelli tratti da articoli recenti Google i ricercatori.
Kaiser ha pubblicato i risultati dei test di benchmark utilizzando BLEU per la traduzione automatica, che mostrano il suo migliore T2T modello offre state-of-the-art di risultati con un minor numero di Gpu e in molto meno tempo rispetto ai modelli precedenti, senza T2T.
“In particolare, con T2T è possibile approccio precedente stato-of-the-art di risultati con una singola GPU in un giorno”, ha detto il Kaiser.
La libreria contiene anche serie di dati pertinenti, modello architetture, ottimizzatori, la velocità di apprendimento schemi di decadimento, hyperparameters, e così via, così come un’interfaccia standard tra questi componenti.
Di più su Google e AI
Vi fidereste di Google Foto AI dirvi che per condividere le immagini con?Google: Ecco come stiamo andando a rompere in giù sul terrorismo propagandaGoogle del Gboard: Nuova IA, aiuta a risparmiare la digitazione sul vostro Android screenGoogle Progetto Tettuccio apribile aggiunge peer pressione: Può l’IA vergogna ad andare solare?AI esperti di prevedere il futuro: i driver del Camion di posti di lavoro entro il 2027, chirurghi, 2053