AI er ikke nogen studerende: DeepMind næsten dumper high school math

0
143

AI, og strømmen af negative tænkning
Mike Amundsen, forfatter, foredragsholder og træner, fortæller Tonya Hall om hans idé om, at AI og negativ tænkning til tider overlapper hinanden.

Kender du svaret til følgende problem i matematik?

Hvad er summen af 1+1+1+1+1+1+1?

Hvis du sagde: “syv,” du har ret. Og du er også bedre til matematik end state-of-the-art dyb læring neurale netværk.

AI forskere fra Google ‘ s DeepMind i denne uge offentliggjort forskning, som de forsøgte at træne neurale netværk til at løse grundlæggende problemer i aritmetik, algebra og calculus. De typer af problemer, som en high school elev, ville være typisk testet.

Men det neurale netværk ikke billetpris alt for godt. Ud over at gætte forkert seks som svar på ovennævnte spørgsmål, neurale netværk fik blot 14 af 40 spørgsmål korrekt på en standard test.

Det svarer til en E-kvalitet til en seksten-årige i det engelske skolesystem, bemærker forskerne.

Dybest set, på dette punkt, AI er at have en hård tid på virkelig at lære noget grundlæggende matematik.

Også: Google ‘ s DeepMind spørger, hvad det betyder for AI til at mislykkes

Papiret, “Analyse af Matematisk Ræsonnement, Evner af Neurale Modeller,” blev oprettet som en benchmark test på, som andre kan bygge videre på, for at udvikle neurale netværk for matematisk læring, der svarer til, hvordan ImageNet blev oprettet som et billede anerkendelse benchmark test.

Det papir, forfattet af David Saxton, Edward Grefenstette, Felix Hill og Pushmeet Kohli af DeepMind, der er bogført på arXiv preprint server. (Se også kommentarer fra korrekturlæsere på OpenReview.)

Med henvisning bemærkes, neurale net kritiker Gary Marcus på NYU, forfatterne henviser til den berømte “skørhed” af neurale netværk, og argumentere for undersøgelse af, hvorfor mennesker er bedre i stand til at udføre “diskrete kompositoriske ræsonnement om genstande og enheder, der ‘algebraically generalisere’.”

De foreslår et bredt sæt af matematiske problemer bør presse på neurale netværk til at erhverve en sådan argumentation, der omfatter ting som “Planlægning (for eksempel, at identificere de funktioner i den rigtige rækkefølge for at komponere)” når et matematisk problem har dele, der kan eller kan ikke være associative eller fordelingstransaktioner eller kommutativ.

deepmind-math-perfromance-of-lstm-and-transformer.png

Sortering på en kurve: diagram af resultaterne af forskellige neurale net på forskellige typer af spørgsmål, med den bedste nøjagtighed i toppen, til spørgsmål om, “værdi,” som der er i den “tiere” sted i en lang række, og værst nøjagtighed i bunden, for “baser”, hvilket betyder at, konvertere et givet tal fra base 2, siger, at base 16.

DeepMind

×

deepmind-matematik-perfromance edition-of-lstm-og-transformer.png

“Det skal være sværere for en model til at gøre godt på tværs af en vifte af problemet typer (herunder generalisering, som vi nærmere nedenfor),” som de skriver, “uden at have i det mindste en del af disse evner, der giver mulighed for algebraiske generalisering.” Derfor datasættet.

Resultaterne var så som så. For eksempel, tilbage til spørgsmålet i starten af denne artikel, grundlæggende desuden fejlet, når de numre, der fik højere end de første seks tælle tal. Forfatterne skriver, at de “testede modeller på at tilføje 1 + 1 + · · · + 1, hvor 1 opstår, n gange.

“Både LSTM og Transformer modeller, der gav det rigtige svar for n ≤ 6, men den forkerte svar på 6 for n = 7 (tilsyneladende mangler en af de 1s), og andre ukorrekte værdier for n > 7.”

Hvorfor er der? Som det så ofte er tilfældet med neurale netværk, noget andet synes at være at gå om bag kulisserne, fordi det netværk, der var i stand til at gøre godt, når du tilføjer langt større tal sammen i længere sekvenser, såsom negative 34 plus 53 plus negative 936, osv., forfatterne observerede.

“Vi har ikke en god forklaring på denne adfærd,” skriver de. De forventer den neurale net er at skabe “sub-beløb”, som de parse spørgsmål og operere på dem, og når de fejler, er det fordi “input er ‘kamufleret’, som består af det samme antal gentages flere gange.”

I almindelighed, den neurale net gjorde bedst på ting, som at finde den “værdi” i en lang række, som, siger, at plukke de “ti” sted i en række som 9343012. De var også fint ved afrunding af decimaltal og sortering sekvenser af tal i størrelsen orden.

Skal læse

“AI er meget, meget dum, “siger Google’ s AI-leder (CNET), Hvordan man får alle Google Assistant ‘s nye stemmer lige nu (CNET)Samlet Google AI division et klart signal om, at AI’ s fremtid (TechRepublic)Top 5: Ting at vide om AI (TechRepublic)

De sværeste problemer for systemet var “nummer-teoretiske spørgsmål,” sådan som faktorisering, nedbryde numre eller andre matematiske objekter i de enkelte dele, og fortæller om et tal er et primtal eller ej. Men mennesker har problemer med dem så godt, som de bemærker, så det er ingen overraskelse. De andre problemer, som havde en tendens til at stump maskinen blev kombinationer af “blandede aritmetiske”, hvor alle fire operationer, der finder sted. Der, maskinens ydeevne “falder til omkring 50% nøjagtighed.

Hvorfor gør computeren gøre fint, når blot tilføje eller trække fra, men får flummoxed, når bedt om at gøre dem alle?

“Vi spekulere, at forskellen mellem disse moduler i, at førstnævnte kan beregnes i en forholdsvis lineær/flad/parallel måde (så den løsning metode er relativt lettere at opdage via gradient descent),” forfatterne muse, “henviser til, at der er ingen genveje til at evaluere blandede aritmetiske udtryk med parenteser.”

Alt i alt, på high school curriculum, en samling af den virkelige verdens problemer, forfatterne kalder nets’ E grade “skuffende” og “moderat” ydeevne.

De konkluderer, at mens Transformeren neurale net, de bygger, klarer sig bedre end den LSTM variant, “ingen af de netværk, der laver meget “algoritmisk argumentation,” og “de modeller, der ikke lærer at gøre enhver algebraisk/algoritmisk manipulation af værdier, og er i stedet lære forholdsvis lave tricks for at få gode svar på mange af modulerne.”

Stadig, er der nu et data sæt, og det er en baseline, håber de, som andre vil slutte sig til dem i at uddanne flere typer af netværk. De data, der er nemt udvides, de bemærk, der skal lade forskere, der gå helt op til universitetsniveau matematik.

Forhåbentlig, ved så, neurale net vil have lært at tilføje seneste seks.

Tidligere og relaterede dækning:

Hvad er AI? Alt, hvad du behøver at vide

En executive guide til kunstig intelligens, fra machine learning og generelt AI til neurale netværk.

Hvad er dyb læring? Alt, hvad du behøver at vide

Den lowdown på en dyb læring: fra hvordan det relaterer til det bredere felt af machine learning igennem til, hvordan du kommer i gang med det.

Hvad er machine learning? Alt, hvad du behøver at vide

Denne vejledning forklarer, hvad machine learning er, hvordan det er relateret til kunstig intelligens, hvordan det fungerer, og hvorfor det er vigtigt.

Hvad er cloud computing? Alt, hvad du behøver at vide om

En introduktion til cloud computing-lige fra det grundlæggende op til IaaS og PaaS, hybrid, offentlige og private cloud.

Relaterede historier:

Google ‘ s AI surfer “gamescape” for at erobre game theory
Dette er, hvad AI ligner (som skitseret ved AI)
Google ‘ s DeepMind hold med førende 3D spil dev platform
DeepMind ‘ s AI pletter tidlige tegn på øjensygdom

Relaterede Emner:

Google

Digital Transformation

CXO

Tingenes Internet

Innovation

Virksomhedens Software