Att gå djupare: Moveworks hakar $75 i nya pengar för att stärka djupt lärande i företag

0
185

Tiernan Ray

Genom Att Tiernan Ray

| November 15, 2019 — 00:30 GMT (00:30 GMT)

| Ämne: Artificiell Intelligens

moveworks-founders-nov-2019.jpg

“Det är en positiv spiral, säger Moveworks grundare och chief executive, Bhavin Shah, bakre raden, om bolagets programvara för att hjälpa skrivbord. “Fler människor blir utsatta för systemet, och mer saker blir löst, och som ger fler människor i systemet.” Företaget är nu i pre-utbilda sin egen anpassade versionen av Googles “BERT” naturliga språket programmet för att svara på företagens anställda ” hjälp önskemål. Främre raden, från vänster till höger, grundare Varun Singh, Vaibhav Nivargi, och Chen Jiang.

Moveworks inc.

Satsar på att maskinen inlärning blir bättre med övning, investerare har lagt $75 miljoner kronor i nya medel till program start Moveworks i Mountain View, Kalifornien, för att föra fram sitt program för effektivisering av hjälp-och utflyktsdisk verksamhet av företag.

ZDNet skrev tidigare i år om hur Moveworks används “meningen embeddings” att dricka exempel på saker som folk fråga sin helpdesk-system. Moveworks s programvara är då kunna automatisera svara på dessa ord i det naturliga språket, och få användaren att en resolution.

$75 miljoner av Serie B finansiering från Iconiq Kapital, Kleiner Perkins, Safir Ventures, samt en personlig investering av Microsoft ordförande John W. Thompson, kommer att användas för en mängd olika mål. Det kommer att öka försäljning och marknadsföring i syfte att öka bolagets avtryck inom corporate IT, men också för att dramatiskt öka forsknings-och utvecklingsteam. R&D personalstyrkan förväntas fördubblas från 60 personer under de kommande tolv månader, grundare och VD Bhavin Shah berättade ZDNet via telefon.

“Den finansiering vi har fått, nu $105 miljoner kronor, är ett erkännande av de framsteg vi har gjort hittills”, säger Shah. Den nuvarande investerare hade gått i denna runda av innan investerare Lightspeed Venture Partners, Bain Capital Ventures och Comerica Bank.

Också: Moveworks spel är DET överbelastning är en behandling av naturligt språk problem

De framsteg som Shah talar innefattar att kunna arbeta bort mycket mer data, “eftersom vi har haft en mycket hög användarnas engagemang,” sade Vaibhav Nivargi, Moveworks är teknisk chef och en av grundarna.

Moveworks nu har 70 miljoner faktiska problem med biljetter till arbete från att träna språket modeller, upp från cirka 20 miljoner tidigare i år. Som ger företaget 120 miljoner meningen exempel och totalt 2 miljarder “tokens”, ett mått på den vokabulär som är kodade som vektorer i inmatningslagret för ett neuralt nätverk.

“Vi är vid en punkt nu tränar vi vår egen domän anpassad BERT-modell”, säger Nivargi, som hänvisar till den populära “BERT” behandling av naturligt språk modell som utvecklats av Google, som är en anpassning av “Transformer” – modell av språket “uppmärksamhet” behandling.

Till skillnad från vissa program av BERT eller Transformator, som “fine tune” – system, en relativt enklare uppgift, Moveworks är “pre-training” – BERT-modell, som innebär en utveckling av den första samlingen av textmaterial som kommer att utgöra grunden för den djupa lärande nätverk grundläggande statistisk modell för fördelning av ord i språket.

“Vi tror att denna domän-adaptiv modell kommer att vara en grundläggande differentiator” för företagets programvara, sade Nivargi.

Också: Facebook s senaste jätte språk AI träffar computing väggen på 500 Nvidia GPUs

Moveworks använder den “bas” – modellen av BERT, med 12 lager av nervceller och 768 dolda enheter, och 110 miljoner parametrar. Antalet polletter, 2 miljarder, är ett särskilt stort ordförråd för en Transformator-baserat system. De flesta sådana system använder ordböcker numrering i hundratusentals av tokens. Den stora ordförråd kanske vettigt i den specialiserade domänen av hjälpcentraler i motsats till de allmänna mänskliga språkets användning.

Innan någon utbildning av BERT kan göras, en massa pre-behandling av uppgifter som måste göras, en massa rensning av data, sade Nivargi. “Vi var tvungna att bygga de rörledningarna, för att lagra den på ett säkert sätt, konfidentiellt,” sade han för troves av kunddata. Moveworks har sina egna datacenter med massor av Grafikprocessorer för utbildning, inte förlita sig på offentliga moln anläggningar med undantag för servering av prognos resultat.

“Mycket kraft går till att förstärka data,” sade Nivargi, inklusive utförande av “överföring lärande” och meta-lärande.” Dessa insatser är att lägga sammanhang.

“Vi tittar på vilka den anställde har, vilken tid på dygnet eller vilken dag i veckan de gör en begäran,” förklarade han. “Som ger oss mer ranking signaler” som att träna systemet.

Förutom att använda BERT för det naturliga språket uppgifter som företaget använder GPT2 för språket generation, eftersom det fungerar bättre än BERT för detta ändamål, sade Nivargi. “Det är fortfarande ganska nytt för oss, vi har varit ämnet för mindre än tre månader nu”, tillade han.

“Vi kan inte bara säga att vi har lyckats på språkbehandling,” observerade Nivargi, “Vi har för att lösa biljett, början till slut — det är en fråga om att integrera med affärssystem, det är en multi-främre striden.”

En viss användare yttrande kan resultera i “massor av modeller” att vara anställd, sade han. Moveworks har “skapa” sammansatta mått av våra egna” för att veta hur företaget går mot sin egen baslinje.

En “uppgift slutsats” är ett mått för att mäta framgång, vad Moveworks kallar “bra svar takt” eller GAR, liknar den standard “recall” för att mäta statistik. 85% är det GAR som Nivargi och teamet strävar efter.

Tekniken förbättras genom att systemet får ökad användning och användning är faktiskt steg, säger VD Shah. Medan tält kund Broadcom tidigare i år var att använda programvaran för att lösa 25% av problem med biljetter, denna andel har nu passerat 40% – tröskeln och är på väg att hälften av alla biljetter resolutioner, sade Shah.

Användningen är också förbättras genom Moveworks programvara som att vara proaktiv. Moveworks är integrerade i företagets applikationer såsom Slack, så det kan dyka upp i ett antal platser. “Vi är för första gången nå ut till de anställda,” sade Shah. “Om du är låst av Okta, till exempel, och vi ser att våra bot kommer att märka det, och nå ut till er.”

“Det är en god cirkel”, sade han, “att Fler människor exponeras för systemet, och mer saker blir löst, och som ger fler människor i systemet.”

Förutom att fortsätta att konstruera produkten, en del av denna finansiering kommer att hjälpa till att utveckla nya partnerskap för distribution, sade Shah. Av bolagets totala portfölj av företag, 45 procent från remisser, sade han. “Det är verkligen märkligt för affärssystem,” konstaterade han, “folk brukar inte prata om vad de just köpt, men vi har varit olika.”

När det gäller framtiden för språket modellering, Moveworks anpassning av BERT och Transformator och GPT2 inte kör upp mot design och begränsningar — ännu. “Jag föreställer mig att det kommer att finnas en nivå där saker mätta,” sade Nivargi, CTO. På plussidan det faktum att en hel del av domän-specifika kunskaper — om företaget, om DET, skrivbord hjälp — kan vara svårt-kodade, så att säga, kan göra en del av maskinen lära sig att arbeta mer effektivt än vad som är fallet för väldigt stora och mycket allmänt natural language processing systems.

“Om du koda som uttryckligen, du kan göra mycket mer med dessa parametrar med denna nivå av data,” sade Nivargi.

“Med Facebook, de har två miljarder användare och alla dessa konstiga och obskyra språk,” konstaterade han, syftande på det sociala nätverket är ny, massiv språk översättning modeller. “Med oss, vårt uppdrag är att räkna ut uppsåt, oftast i en engelskspråkig kontext och sedan ta en användare in på en väg till en lösning, så är det en annan optimering mål.”

Relaterade Ämnen:

Big Data Analytics

Digital Omvandling

CXO

Sakernas Internet

Innovation

Affärssystem

Tiernan Ray

Genom Att Tiernan Ray

| November 15, 2019 — 00:30 GMT (00:30 GMT)

| Ämne: Artificiell Intelligens