| 15 novembre 2019 — 00:30 GMT (00:30 GMT)
| Argomento: Intelligenza Artificiale

“Si tratta di un ciclo virtuoso”, dice Moveworks co-fondatore e chief executive, Bhavin Shah, fila, sulle società di software per help desk. “Sempre più persone ottenere esposta al sistema, più le cose si risolvono, e che porta più persone nel sistema.” La società è ora di pre-formazione e propria versione adattata di Google “BERT” un programma in linguaggio naturale per rispondere a tutti i dipendenti’ richieste di aiuto. Prima fila, da sinistra a destra, co-fondatori di Varun Singh, Vaibhav Nivargi, e Jiang Chen.
Moveworks inc.
Scommettendo che la macchina di apprendimento migliora con la pratica, gli investitori hanno messo $75 milioni di dollari di nuovi finanziamenti in avvio del software Moveworks di Mountain View, in California, al fine di avanzare il suo programma per la razionalizzazione dell’help desk, le operazioni della società.
ZDNet ha scritto all’inizio di quest’anno su come Moveworks usato “la frase “immersioni” a ingerire esempi di cose che la gente chiede loro sistemi di help desk. Moveworks del software è quindi in grado di automatizzare rispondere a tali parole nel linguaggio naturale, e di raggiungere una risoluzione.
I 75 milioni di dollari di Serie B di finanziamento, da Iconiq Capitale, Kleiner Perkins, Zaffiro Venture, così come un investimento personale da parte di Microsoft sedia John W. Thompson, saranno utilizzati per una varietà di obiettivi. Sarà aumentare la vendita e di marketing, al fine di espandere la società “impronta” nell’ambito aziendale, ma anche di aumentare notevolmente il team di ricerca e sviluppo. R&D del personale è previsto un doppio da 60 persone nel corso dei prossimi dodici mesi, co-fondatore e CEO di Bhavin Shah detto a ZDNet per telefono.
“Il finanziamento che abbiamo ottenuto, ora $105 milioni di euro in totale, è un riconoscimento dei progressi che abbiamo fatto finora”, ha detto Shah. L’attuale investitori sono entrato in questo giro, previo investitori Lightspeed Venture Partners, Bain Capital Ventures, e Comerica Bank.
Anche: Moveworks scommesse È in sovraccarico è una elaborazione del linguaggio naturale problema
Il progresso di cui Shah parla, comprende di essere in grado di gestire una maggiore quantità di dati, “perché non abbiamo avuto molto alto il coinvolgimento degli utenti,” ha detto Vaibhav Nivargi, Moveworks, chief technical officer e co-fondatore.
Moveworks ora ha 70 milioni di effettiva difficoltà biglietti per lavorare da treno modelli di linguaggio, da circa 20 milioni di euro all’inizio di quest’anno. Che dà la società di 120 milioni di frase esempi per un totale di 2 miliardi di “token”, una misura del vocabolario, che è codificato come vettori in cui il livello di input della rete neurale.
“Siamo al punto che ora ci sono la formazione di un proprio dominio adattato BERT modello”, ha detto Nivargi, riferendosi alla famosa “ROSA” elaborazione del linguaggio naturale modello sviluppato da Google, che è un adattamento di “Transformer” modello di lingua “attenzione” in fase di elaborazione.
A differenza di alcune applicazioni di BERT o Trasformatore, che è “ottimizzare” il sistema, relativamente più semplice il lavoro, Moveworks è “pre-formazione” il BERT modello, il che significa che lo sviluppo iniziale di un corpus di testi che costituiscono la base della profonda rete di apprendimento fondamentali del modello statistico della distribuzione delle parole in lingua.
“Crediamo che questo dominio-adaptive modello sarà fondamentale elemento di differenziazione” per la società di software, ha detto Nivargi.
Anche: Facebook ultime gigante lingua AI colpi di calcolo muro a 500 Gpu Nvidia
Moveworks impiega la “base” modello di BERT, con 12 strati di neuroni e 768 unità nascoste, e 110 milioni di parametri. Il numero di gettoni, 2 miliardi di euro, è un grande vocabolario per un Trasformatore sistema basato su. La maggior parte di questi sistemi utilizzano vocabolari numerazione in centinaia di migliaia di gettoni. Il grande vocabolario, forse, di senso nel campo specializzato di help desk in contrapposizione umani generali di utilizzo della lingua.
Prima di qualsiasi formazione di BERT può essere fatto, un sacco di pre-elaborazione dei dati doveva essere fatto, un sacco di pulizia dei dati, ha detto Nivargi. “Abbiamo dovuto costruire quelle condotte, per memorizzare in modo sicuro, in modo confidenziale”, ha detto l’pieni di dati del cliente. Moveworks ha i suoi propri centri di elaborazione dati con masse di Gpu per la formazione, non si basa su cloud pubblico di servizi ad eccezione della porzione di risultati della stima.
“Un sacco di sforzo e va in amplificando i dati,” ha detto Nivargi, tra cui l’esecuzione di “trasferire l’apprendimento” e di meta-apprendimento.” Questi sforzi includono l’aggiunta di contesto.
“Consideriamo che il dipendente è, a che ora del giorno o giorno della settimana stanno facendo una richiesta”, ha spiegato. “Che ci dà più la classifica segnali” con cui allenare il sistema.
Oltre a utilizzare BERT per il linguaggio naturale compiti, l’azienda utilizza GPT2 per la generazione di linguaggio, in quanto funziona meglio di BERT per tale scopo, ha detto Nivargi. “E’ ancora abbastanza nuovo per noi, siamo stati che impiegano meno di tre mesi”, ha aggiunto.
“Non possiamo dire che ci siamo riusciti, sull’elaborazione del linguaggio”, ha osservato Nivargi, “Dobbiamo risolvere il biglietto, fine alla fine — è un problema di integrazione con i sistemi aziendali, si tratta di un multi-front battaglia.”
Un dato utente di esprimersi può provocare “decine e decine di modelli” stato impiegato, ha detto. Moveworks è “creare composito metriche del nostro” sapere come l’azienda sta facendo contro la sua propria linea di base.
Una “task conclusione” è una metrica per misurare il successo, che cosa Moveworks chiama il “buon tasso di risposta,” o GAR, simile allo standard “recall” misura nelle statistiche. L ‘ 85% è il GAR che Nivargi e team di ricerca.
La tecnologia è migliorata da quando il sistema riceve un maggiore utilizzo, e il loro utilizzo è infatti in aumento, ha detto il CEO Shah. Considerando che il perimetro del cliente Broadcom all’inizio di quest’anno è stato utilizzando il software di per risolvere il 25% di trouble ticket, che percentuale ha ormai varcato la soglia del 40% ed è sulla buona strada per la metà di tutte le biglietto risoluzioni, ha detto Shah.
L’utilizzo è rafforzata anche dalle Moveworks software di essere proattivi. Moveworks è integrato in applicazioni aziendali come margine di flessibilità, in modo che si può mostrare in un certo numero di posti. “Siamo per la prima volta, raggiungendo i dipendenti”, ha detto Shah. “Se sei bloccato Okta, per esempio, e vediamo che il nostro bot noterà che, per raggiungere te.”
“Si tratta di un ciclo virtuoso”, ha detto, “Più persone ottenere esposta al sistema, più le cose si risolvono, e che porta più persone nel sistema.”
Oltre a continuare a ingegnere di prodotto, alcuni di che il finanziamento contribuirà a sviluppare nuove partnership per la distribuzione, ha detto Shah. Del totale dell’azienda pipeline di business, il 45% dai referral, ha detto. “Questo è molto strano per il software enterprise”, ha osservato, “la gente di solito non parlare di quello che hanno appena comprato, ma siamo stati diverse.”
Come per il futuro di un linguaggio di modellazione, Moveworks adattamento di BERT e Trasformatore e GPT2 non è in esecuzione contro di calcolo per vincoli di sicurezza. “Immagino che ci sarà un livello in cui le cose saturare”, ha detto Nivargi, il CTO. Sul lato positivo, il fatto che un sacco di dominio-specifiche conoscenze circa l’impresa, su di ESSO, circa help desk — possono essere codificati, per così dire, può fare un po ‘ l’apprendimento automatico di lavorare in modo più efficiente rispetto a quanto è il caso per molto grande e molto generale sistemi di elaborazione del linguaggio naturale.
“Se si codifica che in modo esplicito, si può fare molto di più con questi parametri con questo livello di dati,” ha detto Nivargi.
“Con Facebook, hanno due miliardi di utenti e di tutti questi arcani e oscuri lingue”, ha osservato, alludendo ai social network recenti, massiccia la traduzione in lingua dei modelli. “Per noi, la nostra missione è cercare di capire intento, per lo più in lingua inglese il contesto, e quindi l’assunzione di un utente verso un sentiero di una risoluzione, questo è un diverso ottimizzazione di destinazione.”
Argomenti Correlati:
Big Data Analytics
La Trasformazione Digitale
CXO
Internet delle Cose
L’innovazione
Enterprise Software
| 15 novembre 2019 — 00:30 GMT (00:30 GMT)
| Argomento: Intelligenza Artificiale