U gaat dieper: Moveworks addertjes onder het gras $75M nieuw geld naar het versterken van diep leren in de enterprise

0
173

Tiernan Ray

Door Tiernan Ray

| 15 November 2019 — 00:30 GMT (00:30 GMT)

| Onderwerp: Kunstmatige Intelligentie

moveworks-founders-nov-2019.jpg

“Het is een positieve spiraal”, zegt Moveworks mede-oprichter en chief executive, Bhavin Shah, achterste rij, over het bedrijf software voor de helpdesk. “Meer mensen worden blootgesteld aan het systeem, meer dingen opgelost worden, en dat brengt meer mensen in het systeem.” Het bedrijf is nu vooraf aan de training een eigen aangepaste versie van Google ‘ s “BERT” natuurlijke taal programma te beantwoorden corporate werknemers’ hulp verzoeken. Voorste rij, van links naar rechts, van de mede-oprichters Varun Singh, Vaibhav Nivargi, en Jiang Chen.

Moveworks inc.

Wedden dat machine learning wordt beter met de praktijk, beleggers hebben van $75 miljoen aan nieuwe financiering in de software opstarten Moveworks van Mountain View, Californië, om haar programma voor het stroomlijnen van de helpdesk-activiteiten van bedrijven.

ZDNet schreef eerder dit jaar over hoe Moveworks gebruikt “zin embeddings” binnenkrijgt voorbeelden van de dingen die mensen vragen hun helpdesk-systemen. Moveworks de software is dan in staat om het automatiseren van reageren op uitspraken in natuurlijke taal, en aan de gebruiker van een besluit.

De $75 miljoen in Serie B financiering van Iconiq Kapitaal, Kleiner Perkins, Sapphire Ventures, alsmede een persoonlijke investering door Microsoft voorzitter John W. Thompson, zal worden gebruikt voor een verscheidenheid van doelen. Het vergroot de verkoop en marketing inspanningen, om de uitbreiding van het bedrijf “footprint” binnen corporate IT, maar ook om drastisch te verhogen van het onderzoek en de ontwikkeling van het team. R&D personeel is de verwachting, double vanaf 60 personen die de komende twaalf maanden, mede-oprichter en CEO Bhavin Shah zei ZDNet door de telefoon.

“De financiële steun die we hebben gekregen, nu $105 miljoen in totaal, is een erkenning van de vooruitgang die we hebben gemaakt”, zei Sjah. De huidige investeerders werden samengevoegd in deze ronde door voorafgaande beleggers Lightspeed Venture Partners, Bain Capital Ventures, en Comerica Bank.

Ook: Moveworks inzetten overbelasting is een natuurlijke taal verwerking probleem

De voortgang van Shah spreekt ook de mogelijkheid om werk uit van een veel meer gegevens, “want we hadden een zeer hoge betrokkenheid van de gebruiker,” zei Vaibhav Nivargi, Moveworks ‘ s chief technical officer en mede-oprichter.

Moveworks heeft nu 70 miljoen werkelijke tickets om te werken van de te trainen taal-modellen, met een stijging van ongeveer 20 miljoen eerder dit jaar. Dat geeft het bedrijf 120 miljoen zin voorbeelden en een totaal van 2 miljard “tokens”, een maatregel van de woordenschat dat is gecodeerd als vectoren in de invoerlaag van een neuraal netwerk.

“We zijn op een punt nu leren we ons eigen domein aangepast BERT model,” zei Nivargi, verwijzend naar de populaire “BERT” natural language processing model, ontwikkeld door Google, dat is een aanpassing van de “Transformer” model van de taal “aandacht” te verwerken.

In tegenstelling tot sommige toepassingen van BERT of Transformator, die de “fine-tunen” van het systeem, een relatief eenvoudiger taak, Moveworks is “pre-training” de BERT model, wat betekent dat de ontwikkeling van de eerste corpus van teksten die de basis zal vormen van de deep learning network fundamentele statistische model van de verdeling van woorden in de taal.

“Wij geloven dat deze domein-adaptief model zal een fundamentele differentiator” voor het bedrijf software, zei Nivargi.

Ook op: Facebook ‘s nieuwste giant taal AI hits computing muur op 500 Nvidia Gpu’ s

Moveworks maakt gebruik van de “basis” – model van BERT, met 12 lagen van neuronen en 768 verborgen eenheden, en 110 miljoen parameters. Het aantal tokens, 2 miljard, is een bijzonder grote woordenschat voor een Transformer-gebaseerd systeem. De meeste van dergelijke systemen maken gebruik van vocabulaires nummering in de honderden duizenden lopers. Het grote woordenschat misschien zinvol is in de gespecialiseerde domein van helpdesks, in tegenstelling tot de algemene menselijke taal gebruik.

Voor een training van BERT kan worden gedaan, veel van de pre-processing van de gegevens moest worden gedaan, veel van de reiniging van de gegevens, zei Nivargi. “We hadden te bouwen die pijpleidingen, op te slaan die veilig, vertrouwelijk,” zei hij van de troves van klant gegevens. Moveworks heeft zijn eigen datacenters met massa ‘s van de Gpu’ s voor de opleiding, het niet afhankelijk is van de public cloud-voorzieningen, behalve voor het serveren van de voorspelling van de resultaten.

“Veel van de inspanning gaat naar het versterken van de gegevens,” zei Nivargi, met inbegrip van het uitvoeren van de “transfer van leren” en meta-leren.” Deze inspanningen omvatten het toevoegen van context.

“We kijken wie de werknemer is, welk moment van de dag of welke dag van de week zijn zij een verzoek indient,” legde hij uit. “Dat geeft ons meer ranking signalen dat het systeem te trainen.

In aanvulling op het gebruik van BERT voor de natuurlijke taal van taken, het bedrijf is met behulp van GPT2 voor taal generatie, aangezien het werkt beter dan BERT voor dat doel, zei Nivargi. “Dat is nog vrij nieuw voor ons, we zijn in dienst voor minder dan drie maanden nu,” voegde hij eraan toe.

“Kunnen We niet gewoon zeggen: we zijn erin geslaagd op de language processing,” merkte Nivargi, “We hebben aan het oplossen van het ticket, end-to-end — het is een kwestie van het integreren met enterprise systemen, het is een multi-front de strijd.”

Een gebruiker uit te spreken, kan het resultaat via de “tientallen modellen” worden ingezet, zei hij. Moveworks heeft “het maken van samengestelde statistieken van onze eigen” om te weten hoe het met het bedrijf gaat tegen de eigen basislijn.

Een “task conclusie” is een meeteenheid voor het meten van het succes, wat Moveworks noemt het “goede antwoord tarief,” of GAR, verwant aan de standaard “recall” meten in de statistieken. 85% is het GAR dat Nivargi en het team streven voor.

De technologie is verbeterd als het systeem winsten meer gebruik, en het gebruik is inderdaad stijgt, zei CEO Shah. Overwegende dat de tent klant Broadcom eerder dit jaar werd het gebruik van de software op te lossen 25% van de tickets, dat percentage is nu stak de 40% – drempel en is op weg naar de helft van alle ticket resoluties, zei Sjah.

Het gebruik wordt ook versterkt door de Moveworks software proactief op te stellen. Moveworks is geïntegreerd in zakelijke toepassingen zoals Speling, zodat het kan worden weergegeven in een aantal plaatsen. “We zijn voor de eerste keer het bereiken van medewerkers”, aldus Shah. “Als je buitengesloten van Okta, bijvoorbeeld, en we zien dat onze bot merkt dat en gaat naar u uit.”

“Het is een heilzame cyclus,” zei hij, “Meer mensen worden blootgesteld aan het systeem, meer dingen opgelost worden, en dat brengt meer mensen in het systeem.”

Daarnaast blijven ingenieur van het product, een aantal van die middelen zullen bijdragen aan het ontwikkelen van nieuwe partnerships voor distributie, zei Sjah. Van de totale pijplijn van het bedrijf, 45% is van de verwijzingen, zei hij. “Dat is erg vreemd voor enterprise-software,” merkte hij op, “mensen meestal niet te praten over wat ze net gekocht, maar we zijn anders.”

Als voor de toekomst van de taal te modelleren, Moveworks aanpassing van BERT en de Trafo en GPT2 is niet actief tegen computing beperkingen — nog niet. “Ik denk dat er een niveau waar de dingen verzadigen,” zei Nivargi, de CTO. Aan de positieve kant, het feit dat veel van domein-specifieke kennis over de onderneming, over IT, over helpdesks kan worden hard-coded, om zo te spreken, kan ervoor zorgen dat sommige van de machine te leren werken efficiënter dan het geval is voor zeer grote en zeer algemene natural language processing systemen.

“Als u het coderen van dat expliciet, kunt u veel meer doen met deze parameters met dit niveau van de gegevens,” zei Nivargi.

“Met Facebook, ze hebben twee miljard gebruikers en al deze oude en obscure talen,” merkte hij, verwijzend naar het sociale netwerk van de recente, enorme taal vertaling modellen. “Met ons, onze missie is het uitzoeken van opzet, meestal in een engelstalige context, en vervolgens het nemen van een gebruiker van een pad naar een oplossing, het is een ander optimalisatie doel.”

Verwante Onderwerpen:

Big Data Analytics

Digitale Transformatie

CXO

Het Internet van Dingen

Innovatie

Enterprise Software

Tiernan Ray

Door Tiernan Ray

| 15 November 2019 — 00:30 GMT (00:30 GMT)

| Onderwerp: Kunstmatige Intelligentie