Singapore C2C mercato si trasforma in ai per combattere le frodi, migliorare la UX

0
179

Zero

Carousell ritiene che il focus sull’intelligenza artificiale (AI) per spostare passato l’hype e su come le aziende possono adottare per ottenere dei reali benefici per l’azienda.

In particolare, con base a Singapore e consumer-to-consumer (C2C) mercato online, è alla ricerca di machine learning e di AI per combattere le frodi e migliorare l’esperienza utente.

Carousell CTO e Co-Fondatore Lucas Ngoo detto che istituisce la fiducia degli utenti è stato fondamentale per il sito, su cui acquirenti l’acquisto di beni da singoli venditori che non si conoscono personalmente o non è stato eseguito da grandi nomi di marca.

L’azienda ha iniziato ad esplorare l’uso di machine learning meno di un anno, toccando TensorFlow e Cloud di Google di Apprendimento automatico motore di identificare e bandiera potenziale rischio di frode. Per esempio, il software sarebbe in grado di evidenziare un individuo che ha inviato più richieste a diversi Carousell utenti, chiedendo loro di lasciare il sito e la piattaforma di chat per comunicare.

Queste informazioni saranno inviate alla società fiducia e il team per la sicurezza di essere rivisto e per intraprendere le azioni necessarie, per esempio, la sospensione dell’individuo account.

“Non sostituire l’uomo, ma si aumenta la giudizio umano…e aiuta con la previsione che in precedenza non erano possibili. Alla fine della giornata, l’uomo è ancora necessaria per effettuare la chiamata finale in base a queste previsioni,” Ngoo ha detto nel corso di una tavola rotonda presso il suo ufficio.

“Vediamo la macchina di apprendimento [alla fine] essere integrato in ogni parte del business, tra cui l’esperienza utente e la sicurezza,” ha detto, aggiungendo che la società avrebbe continuato a esplorare altri modi per toccare il machine learning.

Secondo Nggo, Carousell attualmente era una frode aliquota dello 0,05 per cento.

Oyvind Roti, Google Asia-Pacifico, Giappone testa di architetto soluzioni per il cloud, ha osservato che il rilevamento delle frodi processi in passato coinvolgono un gran numero di impostare manualmente le regole e i dipendenti avrebbero dovuto faticosamente guardare attraverso tutti questi per determinare se una transazione fraudolenta.

L’emergere di AI e di machine learning aiutato automatizzare un sacco di questi processi ripetibili, ha detto Roti, che era anche sul pannello. Macchina di apprendimento non solo di ridurre il tempo necessario per esaminare e identificare potenziali rischi, si potrebbe anche cogliere nuove tattiche di hacker ha adottato nel corso del tempo per aggirare queste regole. Questo consentirebbe alle imprese di tenere il passo con i criminali informatici.

Egli ha anche sottolineato, però, che gli esseri umani erano ancora bisogno di saltare e prendere la decisione finale e prendere i provvedimenti necessari.

Chris Auld, Microsoft sud-est Asiatico principali tecniche evangelista manager, consentito, notando che era difficile infondere macchine con i valori e la morale. Questo ha sottolineato la necessità per gli esseri umani per rendere judegement, Auld detto.

E lui lo dovrebbe sapere, dal momento che Microsoft lo scorso anno ha dovuto chiudere la sua AI chatbot, Tay.ai, dopo soli 16 ore quando ha cominciato raccogliendo infiammatorie e razzista opinioni su Twitter.

Riconoscendo il fallito esperimento, Auld ha detto che questa esperienza ha sottolineato la necessità di infondere i valori umani, in particolare come macchina di strumenti di apprendimento imparato da quello che hanno visto on-line, tra cui indesiderati comportamento umano.

Ha inoltre sottolineato la necessità per la comunità del fornitore di percorrere con cautela nella guida di machine learning e di AI, o rischiano di avere governi che gravano sul settore, con i regolamenti.

ZDNet ha poi chiesto come che avrebbe un impatto la necessità di bilanciare l’accesso a più dati utente, per alimentare la macchina di modelli di apprendimento, e la domanda degli utenti per la privacy. Google, in particolare, questa settimana ammesso continuato a monitorare gli utenti Android’ posizione anche quando l’impostazione è stata disattivata.

Mentre egli ha rifiutato di commentare in particolare sulla questione dal momento che era al di fuori della sua area di messa a fuoco, Roti, ha detto Google, per quanto riguarda la macchina di apprendimento, espresso sempre in anticipo che non aveva la proprietà dei dati utilizzato per l’alimentazione di questi modelli. I clienti aziendali utilizzati e di proprietà dei loro dati, ha detto.

Egli ha inoltre sottolineato un altro sviluppo di apprendimento automatico che non dipendono l’uso di dati su cui il treno. AlphaGo Zero è stato in grado di padroneggiare il gioco senza la preventiva conoscenza umana e si basa solo sulla conoscenza delle regole del gioco e giocare completamente casuale Go giochi contro se stesso. In tre giorni ha sconfitto il suo precedente iterazione, AlphaGo, 100 giochi a 0.

Argomenti Correlati:

Bancario

Di sicurezza, TV

La Gestione Dei Dati

CXO

Centri Dati

0