“One machine learning model til at styre dem alle’: Google open-kilder værktøjer til enklere AI

0
157
google-office-thumb.jpg

Google håber, at dens Tensor2Tensor bibliotek vil bidrage til at fremskynde dybt-læring-forskning.

Billede: Google

Google forskere har lavet, hvad de kalder “en model til at lære dem alle” for uddannelse AI modeller i forskellige opgaver ved hjælp af flere typer af data.

Forskerne og AI-fokuserede Google Hjernen Team har pakket den model, sammen med andre værktøjer og modulære komponenter i sin nye Tensor2Tensor bibliotek, som de håber vil hjælpe med at fremskynde dybt-læring-forskning.

Den ramme, der lover at tage nogle af arbejde ud af at tilpasse omgivelserne til at sætte dybe læring modeller til at arbejde på forskellige opgaver.

Som de kan se i et nyt oplæg med titlen “En model til at lære dem alle”, dyb læring har haft succes i talegenkendelse, billedet klassificering og oversættelse, men hver model skal tilpasses specifikt til den pågældende opgave.

Også modeller er ofte uddannet på opgaver fra den samme “domæne”, som oversættelse opgaver, der er uddannet med andre oversættelse opgaver.

Sammen, disse faktorer bremse dybt-læring, forskning og heller ikke følge, hvordan den menneskelige hjerne fungerer, og som er i stand til at tage lektioner fra den ene udfordring og anvende det til at løse en ny opgave.

Den model, det har skabt, er uddannet på en bred vifte af opgaver, herunder billed-genkendelse, oversættelse opgaver, billede tekstning, og talegenkendelse.

De hævder, at den eneste model kan samtidig lære en række opgaver fra flere domæner, og at modellen er i stand til at overføre viden. Det er i stand til at lære fra opgaver med en stor mængde data, og anvende denne viden til opgaver, hvor data er begrænset.

Den Tensor2Tensor bibliotek, som er fastholdt ved at Google Hjernen forskere og ingeniører, der tilbyder et sæt af open source-værktøjer til træning af dybt-læring modeller i TensorFlow. Biblioteket “bestræber sig på at maksimere idé båndbredde og minimere udførelse ventetid”, i henhold til sin beskrivelse på GitHub.

“T2T letter oprettelsen af state-of-the-art-modeller for en bred vifte af ML-applikationer, såsom oversættelse, fortolkning, billede captioning og mere, så udforskning af forskellige ideer, meget hurtigere end hidtil,” forklarer Łukasz Kaiser, en senior forsker fra Google Hjernen Team og ledende forfatter af papiret.

Det indeholder også et bibliotek af datasæt og modeller hentet fra seneste artikler af Google hjerneforskere.

Kaiser har indsendt resultaterne af benchmarking, tests med BLEU for maskinoversættelse, som viser sin bedste T2T model, der tilbyder state-of-the-art resultater med færre Gpu ‘ er og i langt mindre tid end tidligere modeller, uden at T2T.

“Især med T2T du kan henvende tidligere state-of-the-art resultater med en enkelt GPU på én dag,” siger Kaiser.

Biblioteket indeholder også relevante datasæt, model arkitekturer, optimizers, læring sats forfald ordninger, hyperparameters, og så videre, samt en standard interface mellem disse komponenter.

Mere om Google og AI

Ville du stole på Google Billeder AI til at fortælle dig, hvem du vil dele billeder med?Google: Her er hvordan vi kommer til at slå ned på terrorisme propagandaGoogle er Gboard: Nye AI hjælper med at spare du skriver på din Android screenGoogle Projekt Soltag, tilføjer peer pressure: Kan sin AI skam dig til at gå sol?AI eksperter forudsige fremtiden: Lastbil chauffører ud af arbejdspladser fra 2027, kirurger, som 2053