
Hoppas Google sin Tensor2Tensor bibliotek kommer att hjälpa till att påskynda djupt lärande forskning.
Bild: Google
Google forskare har skapat vad de kallar “en modell för att lära dem alla” för utbildning AI modeller i olika uppgifter med hjälp av flera typer av data utbildning.
Forskarna och AI-fokuserad Google Hjärnan Team har paketerat den modell som tillsammans med andra verktyg och modulära komponenter i sin nya Tensor2Tensor bibliotek, som de hoppas kommer att hjälpa till att påskynda djupt lärande forskning.
Ramen lovar att ta del av arbetet med att anpassa en miljö för att göra det möjligt djupt lärande modeller för att arbeta på olika uppgifter.
Som de uppmärksammar i en ny rapport som heter “En modell för att lära dem alla”, djupt lärande har haft framgång i taligenkänning, bilden klassificering och översättning, men varje modell behöver avstämmas specifikt för den aktuella uppgiften.
Även modeller är ofta utbildade sig på uppgifter från samma “domän”, som översättning uppgifter som tränade med andra översättningar.
Tillsammans gör dessa faktorer att sakta ner djupt lärande forskning och inte heller följa hur den mänskliga hjärnan fungerar, som klarar av att ta lektioner från en utmaning och tillämpa den för att lösa en ny uppgift.
Den modell som skapats är utbildad på en mängd olika uppgifter, till exempel bild-erkännande, översättningar, bild-text, och taligenkänning.
De hävdar att den enda modell kan samtidigt lära sig ett antal uppgifter från flera domäner och att modellen klarar av att överföra kunskap. Det är möjligt att lära av uppgifter med en stor mängd data utbildning och tillämpa denna kunskap för att uppgifter om data är begränsad.
Den Tensor2Tensor bibliotek, som upprätthålls av Google Hjärnan forskare och ingenjörer, och erbjuder en uppsättning av open-source-verktyg för utbildning djupt lärande modeller i TensorFlow. Biblioteket “strävar efter att maximera idé bandbredd och minimera utförande latency”, enligt beskrivningen på GitHub.
“T2T underlättar skapandet av state-of-the-art modeller för ett brett utbud av ML-program, till exempel översättning, tolkning, bild textning och mer, vilket möjliggör utforskning av olika idéer betydligt snabbare än tidigare, förklarar Łukasz Kaiser, en senior forskare från Google Hjärnan Team och huvudförfattare.
Det innehåller också ett bibliotek av data och modeller som är hämtade från senaste artiklar av Google hjärnforskare.
Kaiser har publicerat resultaten av benchmark-tester med hjälp av BLEU för maskinöversättning, som visar sin bästa T2T modell som erbjuder state-of-the-art resultat med färre Grafikprocessorer och i mycket mindre tid än föregående modeller utan att T2T.
“Framför allt, med T2T du kan vända tidigare state-of-the-art resultat med en GPU på en dag”, säger Kaiser.
Biblioteket innehåller också relevanta data, modell arkitekturer, optimerare, lärande andelen förfall system, hyperparameters, och så vidare, samt ett standardiserat gränssnitt mellan dessa komponenter.
Mer på Google och AI
Skulle du lita på Google Bilder AI för att tala om för dig vem du vill dela bilder med?Google: Här är hur vi kommer att slå ner på terrorism propagandaGoogle är Gboard: Nya AI hjälper till att spara du skriva på din Android screenGoogle Projektet Taklucka lägger grupptryck: Kan dess AI skam du till att gå sol?AI experter förutspår framtiden: Lastbil förare av jobb fram till 2027, kirurger med 2053