Come Sittercity accelerato la sua babysitter processo di screening di Google AutoML

0
86

Zero

I fornitori di servizi Cloud sono attraente per i clienti con un crescente catalogo di intelligenza artificiale e la macchina capacità di apprendimento e di servizi. Ma per raggiungere i propri potenziali clienti, cloud, le aziende come Google e AWS fare la macchina di apprendimento più accessibile. Google sta facendo con il suo servizio relativamente nuovo AutoML, il software che consente di automatizzare la creazione di apprendimento automatico di modelli.

Quando Sittercity migrazione a Google Cloud nella prima metà del 2018, ha avuto l’opportunità di provare AutoML. Il sito, che collega le famiglie per babysitter, si vanta di pioniere “tech-enabled di cura di bambino”, ma il suo piccolo staff, non sono macchine di apprendimento esperti.

ZDNet ha parlato Sittercity Phil Brown, responsabile delle operazioni, e Sandra Dainora, responsabile del prodotto, per sapere di più su Sittercity la decisione di utilizzare AutoML e ciò che l’esperienza è stata come.

Ecco alcuni punti salienti della conversazione:

Una tech-concentrato, ma poco personale, senza ML di competenza

Dainora: “Sittercity è stata fondata nel 2001, siamo stati la prima azienda a sviluppare una linea di puericultura soluzione. Da allora, abbiamo collegato milioni di famiglie e soggetti sulla nostra piattaforma. Come la tecnologia si è evoluta, così abbiamo. Quindi siamo davvero abbracciando il primo mobile, basata su dati, su richiesta del mondo in cui viviamo…

“Attualmente sono 15 i dipendenti del nostro team, e una da 13 persone del team tecnico. Stiamo con sede qui a Chicago, e questo è un luogo in cui in realtà non hanno, in modo nativo, ha avuto un sacco di esperienza in questo settore, ma un sacco di strumenti che stiamo utilizzando hanno effettivamente fatto questo passaggio e il processo di apprendimento in realtà abbastanza facile passo per noi.”

Automatizzare la babysitter foto processo di revisione

Marrone: “il Nostro primo caso di utilizzo di AutoML è stata in gran parte intorno a ridisegnare il modo in cui passiamo in rassegna le foto degli utenti. Abbiamo 1,500 sitter, circa, unendo la piattaforma, ogni singolo giorno. Quelli sitter caricare le foto per scopi di identificazione durante il collegamento con le famiglie sulla nostra piattaforma, e passiamo in rassegna quelli per garantire che essi soddisfino i nostri standard di qualità. Ad esempio, la foto non è compreso sitter con gli occhiali da sole, o assicurarsi che non contengono uno dei 10 o quindi, fondamentalmente, la squalifica di attributi.

sitter-profiles.png

“In precedenza avevamo un team di persone che rivedere quelle foto singolarmente, e di azionamento su quelle foto. Ci siamo effettivamente automatizzare questa foto processo di revisione con il machine learning. E abbiamo unito Google alpha test team per AutoML. Cosa AutoML fondamentalmente ci permette di fare, è in grado di rilevare questi squalifica di foto caratteristiche, come oscurato i volti, Snapchat filtri, le cose di quella natura che, con oltre il 90 per cento di precisione, in ultima analisi, soddisfare le nostre richieste.”

Perché il manuale processo di revisione è un fattore di business

Marrone: “penso due volte: numero uno, è un peso per l’azienda in termini di soli bisogni della gente, in realtà manualmente andando in una revisione di quelle foto. Ma penso che il più grande trascinare il business è in realtà un ritardo che a volte per rivedere le foto. Quindi, se si dispone di una due giorni di ritardo nell’approvazione di una baby-sitter foto, che in due giorni in cui il soggetto non riesce a trovare un lavoro, che perdere opportunità di lavoro per il soggetto, e, francamente, perdere opportunità di reddito per l’azienda”.

La costruzione di un modello personalizzato

Brown: “Il AutoML grande caratteristica distintiva è il fatto che è possibile creare modelli personalizzati… usiamo Google Visione API in collaborazione con il AutoML piattaforma, e il motivo è che la Visione Cloud API è stato perfetto per alcune foto qualità che abbiamo voluto identificare. Etichette, come ad esempio se ci sono più persone nella foto, o se qualcuno indossa occhiali da sole, o se ci sono animali domestici in foto, come un paio di esempi di qualcosa che Visione Cloud API è abbastanza buono per la rilevazione di già.

“Ma abbiamo bisogno di un personalizzato foto modello per identificare cose molto specifiche che ci interessano, che non dispone di potenti Visione Cloud API etichette intorno a loro. Attributi come ho detto prima: filtri su Snapchat. Ci sono un sacco di sfumature.

“Un altro esempio è quello della Visione API identifica come un volto non significa necessariamente che soddisfa i nostri standard di qualità. Per esempio, che faccia potesse tagliare l’immagine, potrebbe essere oscurato da un telefono cellulare, potrebbe essere sfocata. E queste sono le cose che abbiamo bisogno di modelli personalizzati intorno per individuare se – sì, potrebbe essere un volto che Visione Cloud API in grado di capire, ma non soddisfano tali requisiti più specifici che abbiamo nella nostra photo processo di revisione?”

Un manuale processo di etichettatura, ma con risultati rapidi

Brown: “Il set di dati è di per sé abbastanza semplice, costituito da foto gli Url e le singole etichette. Come arrivare a quelle singole etichette – siamo fortunati di avere un database di foto in milioni di copie, in modo da non dover utilizzare, fondamentalmente, al di fuori di fonti per ottenere quelle etichette. Abbiamo fatto manualmente etichetta i dati, e penso che quello che comporta esattamente sta attraversando fisicamente guardando una foto, e valutare se sia o meno alcune di quelle singole etichette, come vari Snapchat filtri, applicare alla foto.

“È un lavoro manuale che dovete fare per farlo. Un sacco di esso è di mettere nuovo di zecca etichette, potrebbe essere la rietichettatura, o potrebbe essere essenzialmente la pulizia di vecchie etichette, perché si vuole veramente essere la formazione con un 100 per cento accurate set di dati. E così un’altra cosa interessante dirò che è una delle cose fenomenali su AutoML è solo che abbiamo visto straordinariamente accurata primi risultati con solo 1.500 foto nel nostro set di dati di training.”

Per ridurre la due giorni di ritardo e la riduzione di ore-uomo

Marrone: “Siamo stati in grado di ridurre le ore di lavoro. In precedenza [ci] era una squadra di quasi sei persone, a volte dedicare giornate intere per questo. Di nuovo, l’impatto maggiore è sul lato business di una semplice riduzione di due giorni di ritardo quando una modella, foto potrebbe essere pubblicato per l’applicazione. Ora è davvero momenti in cui una foto è stata accettata. I primi risultati sono abbastanza promettente: la riduzione di foto del nostro team di revisione, liberando il nostro team di concentrarsi su altre cose, cose più importanti per i nostri clienti.”

Argomenti Correlati:

Google

La Trasformazione Digitale

CXO

Internet delle Cose

L’innovazione

Enterprise Software

0