Vänligen, Facebook, ge dessa chatbots en undertext!

0
140

Föreställ dig i en restaurang, i väntan på ett bord. En främling metoder och frågar: “kommer du hit ofta?” Gör du

Svara, “Ja, och hur kommer det sig att jag har aldrig sett din typ här innan?” eftersom du samtycker till att plocka upp på de tips och flirt?
Genom att blänga och säger ingenting eftersom du vill bli ensam kvar?
Att säga till, “Ursäkta mig,” eftersom de maître d’ signalerar att bordet är redo och du vill få ut av detta utbyte och komma till ditt bord?

Människor gör och säger saker på grund av en undertext, vad de verkligen är, i slutändan efter. Undertexten ligger bakom all mänsklig interaktion.

Maskiner, åtminstone i form av löpande lärande, saknar undertext. Eller, snarare, deras undertext som är lika tråkig som diskvatten.

Det är uppenbart från den senaste verk av Facebook: s AI-forskare. De tränade ett neuralt nätverk som modell för att göra uttalanden, välj åtgärder och välja sätt att uttrycka sig, som bygger på strukturen i en text-baserat rollspel. Resultaten tyder på kontakter med chatbots och andra artificiella agenter kommer inte att vara övertygande när som helst snart.

Dessutom: Varför chatbots fortfarande lämna oss kalla

Det underliggande problemet är, sett i ett nytt verk av laget, förra årets Konversera Intelligens Utmaning, är att dessa robotar har inte mycket av en undertext. Vad undertext de har är bara bildar sammanhang-lämpliga resultat. Som sådan, det finns ingen drivkraft, ingen riktig anledning till att agera, och resultat är inte söt.

Forskning, “Lära sig att Tala och Agera i en Fantasy-Text Äventyrsspel,” är inlagd på arXiv pre-print-server. Det är författad av flera av Facebook forskare som hjälpte till att organisera förra årets Utmaning, däribland Jack Urbanek, Angela Fläkt, Siddharth Karamcheti, Saachi Jain, Emily Dinan, Tim Rocktächel, Douwe restaurangen kiela, Arthur Szlam, Samuel Humeau, och Jason Weston.

8cd7a409-3e37-4428-8f5a-95ab30c70566.jpg

Utdrag av text som genereras från Facebook “LJUS” artificiell agent system. Maskinen spelar rollen av “Resenären” som svar på den mänskliga genererade “Vän” – utrop.

Facebook AI-Forskning

Författarna ger en ny inställning för språket uppgifter, som kallas “LJUS” som står för “Lärande i Interaktiva Spel med Människor och Sms: a.” LJUS är tillverkade via en crowd-sourcing som metod, att få människor att uppfinna beskrivningar av tillverkade platser, inklusive landsbygden, bazaar, en öken och en slottet, totalt 663 i alla. De försökspersoner, så befolkas dessa inställningar med tecken, från människor till djur för att orcher, och föremål som kan finnas i dem, inklusive vapen och kläder samt mat och dryck. De hade också de människor skapar nästan 11 000 exempel dialoger som de interagerade i par i en viss miljö.

Utmaningen är då, var att utbilda maskinen för att plocka ut saker att göra, säga och “spela över” genom att lära av människans exempel. Som författarna uttrycker det, att “lära sig och utvärdera agenter som kan agera och tala i” den skapade miljöer.

För denna uppgift, författarna tränat fyra olika typer av modeller. Var och en försöker att lära sig olika “embeddings,” representationer av platser och saker och uttalanden och handlingar och känslor som är lämpliga i kombination.

Också: Frukta inte djupt förfalskningar: OpenAI maskinen skriver så meningslöst som en chatbot talar

Den första modellen är en “baseline” – modell som bygger på StarSpace, en 2017 modell, också skapad av Facebook, som kan utföra en mängd olika uppgifter såsom applicering av etiketter på saker och genomföra informationssökning.

Den andra modellen är en anpassning av Dinan och kollegor i “transformers” neurala nätverk som utvecklats i och med 2017 på Google, vars användning har exploderat de senaste två åren, särskilt för språket uppgifter. Den tredje är “BERT”, en anpassning av Google av transformatorn som gör att föreningar mellan element i en “dubbelriktad” mode (tror vänster till höger, i fallet med strängar av ord.)

Den fjärde neurala nätverk strategi provat är känd som en “skapande” – nätverk, med hjälp av en transformator, inte bara för att betala uppmärksamhet till information, utan att produktionen yttranden och handlingar.

Testet för alla på detta är hur olika metoder att utföra i att producera dialog och åtgärder och gör, när ges en mänsklig fråga. Det korta svaret är att transformatorn och BERT-modeller gjorde bättre än baseline resultat, samtidigt som en generativ metod inte gör så bra.

Mest viktigt, “Human performance är fortfarande över alla dessa modeller, vilket lämnar utrymme för framtida förbättringar på dessa uppgifter,” skriver författarna.

Ja, även om endast ett fåtal exempel på detta ges av maskinen utgång, det verkar samma övergripande problem dyker upp igen som dök upp i förra årets Utmaning.

I och med att chatbot konkurrens, övergripande mål, för människa och maskin, som skulle kunna beskrivas som “vänner.” Undertexten var att visa intresse i en samtalspartner, att lära sig om dem, och för att få den andra sidan att få veta lite om sig själv. På denna uppgift, neurala nätverk i Utmaningen misslyckades hårt. Chatbots upprepade gånger spydde ut strömmar av information som var repetitiva och som verkade dåligt anpassade till antydningar och ledtrådar som kommer från mänsklig samtalspartner.

Måste läsa

‘AI är mycket, mycket dumt”, säger Googles AI ledare (CNET)Hur man får alla Google Assistant nya röster just nu (CNET)Enhetlig Google AI division en tydlig signal om att AI: s framtid (TechRepublic)Topp 5: Saker att veta om AI (TechRepublic)

På samma sätt, i utdrag av datorgenererade dialog visas i LJUSET system, maskinen genererar uttalanden och åtgärder som är lämpliga att ställa och att yttrandet av den mänskliga samtalspartner, men det är absolut en förutsägelse av språklig struktur, frånvarande stort syfte. När författarna utfört en ablation, vilket innebär, försökte ta bort olika bitar av information, såsom handlingar och känslor, och de fann mest betydande sak maskinen kan levereras var historien om dialog för en viss scen. Deras arbete är fortfarande i huvudsak en uppgift för ordprediktion, med andra ord.

Konstgjorda medel av detta slag kan ha ett utökat ordförråd, men det är inte troligt att de har någon större känsla av varför de samverkar. De saknar fortfarande en undertext som sina mänskliga motsvarigheter.

Allt är inte förlorat. På Facebook har författarna visat hur de kan ta ordet och meningen modeller för att förutsäga och experimentera med sin text förmågor genom att kombinera flera faktorer, såsom en känsla av plats och en känsla av åtgärder.

Tills dess, men deras robotar har en känsla av varför de samverkar, det är ganska troligt konstgjorda-mänskliga interaktioner kommer att förbli en ganska tråkig tillställning.

Tidigare och relaterade täckning:

Vad är AI? Allt du behöver veta

En verkställande guide till artificiell intelligens, från maskininlärning och allmänna AI att neurala nätverk.

Vad är djupt lärande? Allt du behöver veta

Lowdown på djupt lärande: från hur det förhåller sig till de bredare fält av maskinen lärande genom hur man kommer igång med det.

Vad är lärande? Allt du behöver veta

Denna guide förklarar vad lärande är, hur den är relaterad till artificiell intelligens, hur det fungerar och varför det är viktigt.

Vad är cloud computing? Allt du behöver veta om

En introduktion till cloud computing rätt från grunderna upp till IaaS och PaaS, hybrid, offentliga och privata moln.

Relaterade artiklar:

Googles AI surfar “gamescape” att erövra spelteori
Detta är vad AI ser ut (som skissat av AI)
Googles DeepMind lag med ledande 3D-spel dev plattform
DeepMind AI fläckar tidiga tecken på ögonsjukdom

Relaterade Ämnen:

Google

Digital Omvandling

CXO

Sakernas Internet

Innovation

Affärssystem