| November 15, 2019 — 00:30 GMT (00:30 GMT)
| Emne: Kunstig Intelligens

“Det er en god cirkel,” siger Moveworks medstifter af og chief executive, Bhavin Shah, bagerste række, om virksomhedens software til helpdesks. “Flere mennesker bliver udsat for systemet, er flere ting at få løst, og den, der bringer flere mennesker ind i systemet.” Virksomheden er nu pre-training sin egen tilpassede version af Google ‘ s “BERT” natural language program til at besvare virksomhedernes medarbejdere’ hjælp anmodninger. Forreste række fra venstre mod højre, co-stiftere Varun Singh, Vaibhav Nivargi, og Jiang Chen.
Moveworks inc.
Væddemål, der machine learning bliver bedre med praksis, investorerne har sat $75 millioner værd af nye midler til software start Moveworks i Mountain View, Californien, for at fremme sit program til en strømlining af help desk operationer selskaber.
ZDNet skrev tidligere i år om, hvordan Moveworks brugt “sætning embeddings” til at indtage eksempler på ting folk spørger deres helpdesk systemer. Moveworks ‘ s software er derefter i stand til at automatisere reagere på disse ord i naturlige sprog, og få brugeren til en beslutning.
$75 millioner Serie B, finansiering, fra Iconiq Kapital, Kleiner Perkins, Safir Ventures, samt en personlig investering af Microsoft formand John W. Thompson, vil blive brugt til en bred vifte af mål. Det vil øge salg og marketing indsats, med henblik på at udvide selskabets “fodaftryk” inden for IT, men også for at øge forskning og udvikling team. R&D-antal beskæftigede forventes at fordobles fra 60 mennesker i løbet af de næste tolv måneder, medstifter og administrerende DIREKTØR Bhavin Shah fortalte ZDNet af telefonen.
“De midler, vi har fået, nu $105 millioner i alt, er en anerkendelse af de fremskridt, vi har gjort hidtil,” sagde Shah. De nuværende investorer deltog i denne runde efter forudgående investorer Lightspeed Venture-Partnere, Bain Capital Ventures, og Comerica Bank.
Også: Moveworks indsatser DET overload er en naturligt sprog forarbejdning problem
De fremskridt, som Shah taler også, at det er i stand til at arbejde ud af en masse mere data, “fordi vi har haft en meget høj brugernes engagement,” sagde Vaibhav Nivargi, Moveworks ‘ s chief technical officer og medstifter.
Moveworks nu har 70 millioner faktiske problemer billetter til arbejde, fra at træne sprog modeller, op til omkring 20 millioner tidligere i år. Der giver virksomheden 120 millioner sætning eksempler og alt 2 milliarder “tokens”, en måling af ordforråd, der er kodet som vektorer i input-lag af et neuralt netværk.
“Vi er nået til et punkt nu træner vi vores eget domæne tilpasset BERT model,” sagde Nivargi, med henvisning til den populære “BERT” natural language processing model, der er udviklet af Google, som er en tilpasning af “Transformer” model af sprog “opmærksomhed” behandling.
I modsætning til nogle anvendelser af BERT eller Transformer, som “fine tune” – system, en forholdsvis enkel opgave, Moveworks er “pre-træning” for de BERT model, hvilket betyder at udvikle den første korpus af tekster, materiale, der vil danne grundlag for de dybe læring netværkets grundlæggende statistiske model af fordelingen af ord i sproget.
“Vi mener, at dette domæne-adaptive model vil være en fundamental forskel” for selskabets software, sagde Nivargi.
Også: Facebook ‘s seneste giant sprog AI hits computing væggen på 500 Nvidia Gpu’ er,
Moveworks beskæftiger the “base” model af BERT, med 12 lag af neuroner, og 768 skjulte enheder, og 110 millioner parametre. Antallet af kuponer, 2 milliarder, er et særligt stort ordforråd for en Transformer-baseret system. De fleste af disse systemer bruger ordlister nummerering i hundredvis af tusindvis af kuponer. Det store ordforråd måske giver mening i det specialiserede domæne for hjælp skriveborde i modsætning til almindelige menneskers sprogbrug.
Før enhver form for uddannelse af BERT kan ske, en masse af præ-behandling af data, der måtte ske, en masse udrensning af data, sagde Nivargi. “Vi var nødt til at bygge disse rørledninger, at lagre, der sikkert, fortroligt,” sagde han i troves af kundens data. Moveworks har sine egne datacentre med masser af Gpu ‘ er til træning, det ikke er afhængige af offentlige cloud-faciliteter bortset fra servering af forudsigelse resultater.
“En masse af indsats går til at forstærke de data,” sagde Nivargi, herunder at udføre “overførsel af læring” og meta-læring.” Denne indsats omfatter tilføjelse af sammenhæng.
“Vi ser på, hvem medarbejderen er, hvad tid på dagen eller hvilken dag i ugen, de gør en anmodning,” forklarede han. “Det giver os mere ranking-signaler” med til at træne systemet.
Ud over at bruge BERT til det naturlige sprog, opgaver, virksomheden bruger GPT2 for sprog generation, da det virker bedre end BERT til dette formål, sagde Nivargi. “Det er stadig ret nyt for os, vi har været ansætte det for mindre end tre måneder nu,” tilføjede han.
“Vi kan ikke bare sige, at vi har lykkedes på det sprog, behandling,” bemærkede Nivargi, “Vi er nødt til at løse billet, ende til anden — det er et spørgsmål om integration med enterprise-systemer, er det en multi-forreste kamp.”
En given bruger ytring kan resultere i, at “snesevis af modeller”, er ansat, sagde han. Moveworks har “oprette sammensatte målinger af vores egne” at vide, hvordan virksomheden klarer sig i forhold til sine egne baseline.
En “opgave konklusion” er en parameter for at måle succes, hvad Moveworks kalder “godt svar sats” eller GAR, beslægtet med den standard, der “husker” foranstaltning i statistikken. 85% er det GAR, at Nivargi og team stræber efter.
Teknologien er forbedret, så systemet får større brug, og brugen af den er faktisk stigende, siger administrerende DIREKTØR Shah. Der henviser til, at marquee kunde Broadcom tidligere dette år var at bruge den software til at løse 25% af problemer med billetter, der procentvis har nu passeret de 40% – grænsen og er på vej til at halvdelen af alle billet beslutninger, sagde Shah.
Forbrug er også blevet forstærket af den Moveworks software være proaktiv. Moveworks er integreret i virksomhedens applikationer såsom Slap, så det kan dukke op i en række steder. “Vi er for første gang at nå ud til medarbejderne,” sagde Shah. “Hvis du er låst ude af Okta, for eksempel, og vi kan se, at vores bot vil bemærke det, og nå ud til dig.”
“Det er en god cirkel,” sagde han, “at Flere mennesker bliver eksponeret til systemet, er flere ting at få løst, og den, der bringer flere mennesker ind i systemet.”
Udover fortsat at udvikle produktet, nogle af disse midler vil bidrage til at udvikle nye partnerskaber med henblik på distribution, sagde Shah. Af virksomhedens samlede pipeline af virksomhed, 45% er fra henvisninger, sagde han. “Det er virkelig mærkeligt, for enterprise-software,” bemærkede han, “som normalt ikke taler om, hvad de lige har købt, men vi har været forskellige.”
Som for den fremtidige sprog modellering, Moveworks s tilpasning af BERT og Transformer og GPT2 ikke kører op mod computing begrænsninger — endnu. “Jeg kan forestille mig at der vil være et niveau, hvor tingene mætte,” sagde Nivargi, CTO. På plus side, det faktum, at en masse af domæne-specifik viden — om virksomheden, om DET, ved hjælp skriveborde — kan være hard-kodet, så at sige, kan gøre nogle af de machine learning arbejde mere effektivt, end det er tilfældet for meget store og meget generelle natural language processing systemer.
“Hvis du koder, som udtrykkeligt, kan du gøre meget mere med disse parametre med dette niveau af data,” sagde Nivargi.
“Med Facebook, har de to millioner brugere og alle disse mystiske og dunkle sprog,” bemærkede han, idet han hentydede til the social network ‘ s seneste, massive oversættelse modeller. “Med os, vores mission er at finde ud af hensigt, for det meste i en engelsk sammenhæng, og derefter tage en bruger ned en sti til en beslutning, så er det en anden optimering mål.”
Relaterede Emner:
Big Data Analytics
Digital Transformation
CXO
Tingenes Internet
Innovation
Virksomhedens Software
| November 15, 2019 — 00:30 GMT (00:30 GMT)
| Emne: Kunstig Intelligens