Forestil dig selv i en restaurant og venter på et bord. En fremmed tilgange og spørger, “kommer du her tit?” Gør du
Svar: “Ja, og hvordan kommer jeg aldrig har set din type her før?”, fordi du er enig i, at samle op på de vink og flirt?
Skulen og sige noget, fordi du ønsker at være alene?
Sige, “Undskyld mig,” fordi de maître d’ signalerer, at bordet er klar, og du ønsker at få ud af denne udveksling og komme til dit bord?
Mennesker at gøre og sige ting, fordi der er en dybere mening, hvad de er i virkeligheden, i sidste ende efter. Den dybere mening ligger til grund for al menneskelig interaktion.
Maskiner, i det mindste i form af aktuelle machine learning, mangler en dybere mening. Eller rettere, deres dybere mening, er lige så kedelig som opvaskevand.
Så meget er klart fra det seneste arbejde med Facebook ‘ s AI-forskere. De har uddannet en neural netværksmodel til at gøre ytringer, vælg actions, og vælg måder at emote, baseret på strukturen af en tekst-baseret rollespil. Resultaterne tyder på, samspillet med chatbots og andre kunstige agenter vil ikke være overbevisende når som helst snart.
Også: Hvorfor chatbots stadig lader os kolde
Det underliggende problem, som det ses i en anden nyere arbejde af holdet, sidste års Samtale Intelligens Udfordring, er, at disse robotter har ikke meget af en dybere mening. Hvad dybere mening, med det de har, er blot danner kontekst-relevante resultater. Som sådan, er der ingen drivkraft, er der ingen grund til at tale eller handle, og resultatet er ikke kønt.
Den forskning, “at Lære at Tale og Handle på en Fantasi Tekst Adventure Spil,” er udgivet på arXiv pre-print-server. Det er forfattet af flere af Facebook forskere, der hjalp med at organisere sidste års Udfordring, herunder Jack Urbanek, Angela Loftvifte, Siddharth Karamcheti, Saachi Jain, Emily Dinan, Tim Rocktächel, Douwe Kiela, Arthur Szlam, Samuel Humeau, og Jason Weston.

Uddrag af tekst, der er genereret fra Facebook ‘ s “LYS” kunstige agent system. Maskinen spiller rollen som “Rejsende” i svar til menneske-genereret “Ven” udråb.
Facebook AI Forskning
Forfatterne giver en ny indstilling for sprog opgaver, kaldet “LYS”, der står for “Læring i Interaktive Spil med Mennesker og Tekst.” LYS er konstrueret via en crowd-sourcing strategi, at få folk til at opfinde beskrivelser af færdige steder, herunder landskabet, bazaar, ørken, og slot, i alt 663 i alt. Den menneskelige frivillige, så befolket disse indstillinger med tegn, fra mennesker til dyr til orker, og genstande, som kan findes i dem, herunder våben og tøj og mad og drikke. De havde også de mennesker skaber næsten 11.000 eksempel dialoger, som de har interageret i par i det givne miljø.
Udfordringen var at uddanne maskinen til at udvælge ting at gøre, sige, og “emote” ved at lære af den menneskelige eksempler. Som forfatterne udtrykker det, at “lære og evaluere agenter, der kan handle og tale inden for” de skabte miljøer.
For denne opgave, forfatterne er uddannet fire forskellige typer af machine learning-modeller. Hver enkelt forsøger at lære forskellige “embeddings,” repræsentationer af steder og ting og ytringer og handlinger og følelser, der er passende i kombination.
Også: Frygt ikke dybt forfalskninger: OpenAI ‘ s maskine skriver så meningsløst som en chatbot taler
Den første model er en “baseline” – model, som er baseret på StarSpace, et 2017 model, også udformet af Facebook, der kan udføre en bred vifte af opgaver, såsom at anvende etiketter til ting og foretage informationssøgning.
Den anden model er en tilpasning af Dinan og kolleger i “transformer” neurale netværk, der er udviklet i 2017 på Google, hvis anvendelse er eksploderet i de sidste to år, især for sproglige opgaver. Den tredje er “BERT,” en tilpasning af Google i den transformer, der giver associationer mellem elementer i en “bi-directional” mode (tror venstre til højre, i tilfælde af strenge af ord).
Den fjerde neurale netværk tilgang prøvet er kendt som en “generativ” netværk, hjælp transformer ikke kun at være opmærksom på oplysninger, men til output ytringer og handlinger.
Test for alt dette er, hvordan de forskellige tilgange udføre i produktion af dialog og handlinger og emoting, når du har givet det et menneske-prompten. Det korte svar er, at transformeren og BERT modeller, der klarede sig bedre end baseline resultater, mens generativ tilgang gjorde det ikke så godt.
Mest vigtigt, “Human performance er stadig over alle disse modeller, give plads til fremtidige forbedringer i disse opgaver,” skriver forfatterne.
Faktisk, selv om det kun er et par eksempler er givet af maskinens output, synes det er den samme overordnede problem dukker op igen som dukkede op i sidste års Udfordring.
I denne chatbot-konkurrence, det overordnede mål, for menneske og maskine, kunne beskrives som “venner.” Den dybere mening var at vise interesse i en samtalepartner, til at lære om dem, og at få den anden side til at vide en lille smule om sig selv. På denne opgave, og de neurale netværk i Challenge mislykkedes hårdt. Chatbots flere gange, spyede ud strømme af information, der blev gentaget, og der syntes dårligt tilpasset til de signaler og spor, der kommer fra den menneskelige samtalepartner.
Skal læse
“AI er meget, meget dum, “siger Google’ s AI-leder (CNET), Hvordan man får alle Google Assistant ‘s nye stemmer lige nu (CNET)Samlet Google AI division et klart signal om, at AI’ s fremtid (TechRepublic)Top 5: Ting at vide om AI (TechRepublic)
Ligeledes, i det uddrag af computer-genereret dialog, der er vist i LYS system, maskinen genererer ytringer og handlinger, der er passende til indstilling og ytring af den menneskelige samtalepartner, men det er strengt en forudsigelse af den sproglige struktur, er fraværende på mange formål. Når forfatterne foretaget en ablation, hvilket betyder, forsøgte at fjerne forskellige stykker af information, såsom handlinger og følelser, de fandt mest betydningsfulde ting, maskinen kan forsynes var historien om dialog for en given scene. Deres arbejde er i det væsentlige en opgave ord forudsigelse, med andre ord.
Kunstige agenter af denne slags kan have en udvidet ordforråd, men det er usandsynligt, at de har nogen større fornemmelse af, hvorfor de interagerer. De mangler stadig en dybere mening, som deres menneskelige kolleger.
Alt er ikke tabt. Den Facebook forfattere har vist, hvordan de kan tage ordet og sætningen modeller til forudsigelse af og eksperimentere med deres tekst evner ved at kombinere flere faktorer, såsom en følelse af plads og en følelse af handling.
Indtil, men deres bots har en fornemmelse af, hvorfor de interagerer, er det meget sandsynligt, kunstige-menneskelige interaktioner vil fortsat være en temmelig kedelig affære.
Tidligere og relaterede dækning:
Hvad er AI? Alt, hvad du behøver at vide
En executive guide til kunstig intelligens, fra machine learning og generelt AI til neurale netværk.
Hvad er dyb læring? Alt, hvad du behøver at vide
Den lowdown på en dyb læring: fra hvordan det relaterer til det bredere felt af machine learning igennem til, hvordan du kommer i gang med det.
Hvad er machine learning? Alt, hvad du behøver at vide
Denne vejledning forklarer, hvad machine learning er, hvordan det er relateret til kunstig intelligens, hvordan det fungerer, og hvorfor det er vigtigt.
Hvad er cloud computing? Alt, hvad du behøver at vide om
En introduktion til cloud computing-lige fra det grundlæggende op til IaaS og PaaS, hybrid, offentlige og private cloud.
Relaterede historier:
Google ‘ s AI surfer “gamescape” for at erobre game theory
Dette er, hvad AI ligner (som skitseret ved AI)
Google ‘ s DeepMind hold med førende 3D spil dev platform
DeepMind ‘ s AI pletter tidlige tegn på øjensygdom
Relaterede Emner:
Digital Transformation
CXO
Tingenes Internet
Innovation
Virksomhedens Software