
Google hoopt de Tensor2Tensor bibliotheek zal helpen versnellen diep-learning onderzoek.
Afbeelding: Google
Google onderzoekers hebben gemaakt van wat zij noemen “een model om te leren van hen alle” voor de opleiding van AI modellen in verschillende taken met meerdere soorten training data.
De onderzoekers en de AI-gericht Google Hersenen Team verpakt het model samen met andere tools en modulaire componenten in de nieuwe Tensor2Tensor bibliotheek, waarmee ze hopen helpen versnellen diep-learning onderzoek.
Het kader belooft een aantal van de werken van het aanpassen van een omgeving in te schakelen diep-leren-modellen om te werken aan verschillende taken.
Als ze een opmerking in een nieuw document getiteld ‘Een model om te leren ze allemaal’ diep leren heeft succes gehad in de spraakherkenning, beeld-indeling en de vertaling, maar elk model moet worden speciaal zijn afgestemd voor de taak bij de hand.
Ook worden modellen vaak getraind op de taken van hetzelfde ‘domein’, zoals de vertaling taken worden getraind met een andere vertaling taken.
Samen vormen deze factoren vertragen diep-learning onderzoek en ook niet te volgen hoe het menselijk brein werkt, die is in staat om de lessen van een uitdaging en toepassen in het oplossen van een nieuwe taak.
Het model gemaakt wordt getraind op een verscheidenheid van taken, met inbegrip van image recognition, vertaling taken, afbeelding ondertiteling en spraak herkenning.
Ze beweren dat het enkel model kan gelijktijdig met het leren van een aantal taken van meerdere domeinen en dat het model is in staat de overdracht van kennis. Het is in staat om te leren van taken met een grote mate van trainingsgegevens en het toepassen van die kennis voor taken waar de gegevens is beperkt.
De Tensor2Tensor bibliotheek, die wordt onderhouden door Google Hersenen onderzoekers en ingenieurs, biedt een set van open-source tools voor de opleiding van diep-leren-modellen in TensorFlow. De bibliotheek “streeft naar het maximaliseren van de idee van de bandbreedte en het minimaliseren van de uitvoering van de latency”, volgens de beschrijving op GitHub.
“T2T vergemakkelijkt het maken van state-of-the-art modellen voor een breed scala van ML-toepassingen, zoals vertalingen, parsing, afbeelding ondertiteling en meer, waardoor de verkenning van de verschillende ideeën veel sneller dan voorheen”, legt Łukasz Kaiser, senior research scientist van Google Hersenen Team en hoofdauteur van de paper.
Het bevat ook een bibliotheek van datasets en modellen afkomstig uit recente publicaties door Google Hersenen onderzoekers.
Kaiser heeft geplaatst resultaten van benchmarking tests met behulp van de BLEU voor machine vertaling, die laten zien dat het de beste T2T model aanbieden van state-of-the-art resultaten met minder Gpu ‘ s en in veel minder tijd dan de vorige modellen zonder T2T.
“Met name met T2T kunt u de aanpak van de vorige state-of-the-art resultaten met een enkele GPU in één dag”, zegt Kaiser.
De bibliotheek bevat ook relevante datasets, model architecturen, optimizers, leren beoordelen verval regelingen, hyperparameters, enzovoort, evenals een standaard interface tussen deze componenten.
Meer over Google en AI
Zou u het vertrouwen van Google Foto ‘ s AI om u te vertellen wie delen van afbeeldingen met?Google: Hier is hoe we gaan kraken op terroristische propagandaGoogle de Gboard: Nieuwe AI helpt bespaar je typt op je Android screenGoogle Project Zonnedak voegt peer pressure’: Kan de AI jammer dat je in zonne-energie?AI experts voorspellen van de toekomst: de Vrachtwagen chauffeurs banen door 2027, chirurgen door 2053