
Google hofft, seine Tensor2Tensor Bibliothek wird helfen, beschleunigen deep-learning-Forschung.
Bild: Google
Google-Forscher geschaffen haben, was Sie als “ein Modell, um Sie alle lernen” für die Ausbildung KI-Modelle in den verschiedenen Aufgaben mit mehreren Arten von Trainingsdaten.
Die Forscher und die KI fokussierte Google Brain Team verpackt das Modell zusammen mit anderen tools und modulare Komponenten in das neue Tensor2Tensor-Bibliothek, die Sie hoffen, dass Sie helfen, beschleunigen deep-learning-Forschung.
Der Rahmen verspricht, einige der arbeiten aus der customizing-Umgebung, um deep-learning-Modellen arbeiten an verschiedenen Aufgaben.
Als Sie die Notiz in einem neuen Papier namens “Ein Modell zu lernen, Sie alle” deep learning hat Erfolg in der Spracherkennung, Bild-Klassifizierung und übersetzung, aber jedes Modell muss optimiert werden, speziell für die Aufgabe zur hand.
Auch models sind oft ausgebildet, über die Aufgaben, die von der gleichen “Domäne”, wie übersetzungsaufgaben geschult, mit anderen Aufgaben übersetzung.
Zusammen werden diese Faktoren verlangsamen deep-learning-Forschung und auch nicht verfolgen, wie das menschliche Gehirn arbeitet, die fähig ist, den Unterricht aus einer Herausforderung und Ihre Anwendung zur Lösung einer neuen Aufgabe.
Das Modell erstellt ist geschult auf eine Vielzahl von Aufgaben, einschließlich Bild-Anerkennung, übersetzungsaufgaben, Bild Untertitel, und die Spracherkennung.
Sie behaupten, dass das einzige Modell können gleichzeitig lernen Sie eine Reihe von Aufgaben, die aus mehreren Domänen, und dass das Modell in der Lage zu übertragen wissen. Es ist in der Lage zu lernen, die aus Aufgaben mit einer großen Menge von Trainingsdaten und anwenden der Kenntnisse auf Aufgaben, bei denen Daten begrenzt ist.
Die Tensor2Tensor Bibliothek, die von Google gepflegten Gehirn Forscher und Ingenieure, bietet eine Reihe von open-source-tools für training, deep-learning-Modelle in TensorFlow. Die Bibliothek “bemüht sich um eine größtmögliche Idee Bandbreite und minimieren Ausführung Latenz”, laut der Beschreibung auf GitHub.
“T2T erleichtert die Erstellung von state-of-the-art-Modelle für eine Vielzahl von ML-Anwendungen, wie übersetzungs -, Analyse -, Bild-Untertitelung und mehr, was die Erforschung der verschiedenen Ideen viel schneller als bisher”, erklärt Łukasz Kaiser, senior research scientist von Google Brain Team und führen Autor des Papiers.
Es enthält auch eine Bibliothek der Datensätze und-Modelle, gezeichnet von den letzten Papiere von Google Hirnforscher.
Kaiser hat geschrieben Ergebnisse von benchmarking-tests mithilfe BLEU für die maschinelle übersetzung, die zeigen, Ihre besten T2T Modell bietet state-of-the-art-Ergebnisse mit weniger GPUs und in viel kürzerer Zeit als die bisherigen Modelle, ohne T2T.
“Vor allem, mit T2T Sie können Ansatz früheren state-of-the-art-Ergebnisse mit einer single-GPU in einem Tag”, sagte Kaiser.
Die Bibliothek enthält auch die relevanten Datensätze, Modell-Architekturen, – Optimierer -, Lern-rate zerfallsschemata, hyperparameters, und so weiter, sowie eine standard-Schnittstelle zwischen diesen Komponenten.
Mehr über Google und AI
Würden Sie darauf Vertrauen, Google Fotos, AI, Ihnen zu sagen, die Bilder auszutauschen?Google: Hier ist, wie wir gehen, um nach unten zu knacken auf terroristische propagandaGoogle ist Gboard: Neue KI hilft, speichern Sie die Eingabe auf Ihrem Android-screenGoogle Projekt-Schiebedach, fügt peer-Druck: Kann sein AI-schade, dass man in going solar?AI-Experten die Zukunft vorherzusagen: LKW Fahrer jobs von 2027, Chirurgen, indem 2053