Hvorfor samtale-AI nå er klar for beste sendetid

0
135

Zeus Kerravala

Av Zeus Kerravala | 18. november 2021 | Emne: Teknologi

Konversasjonskunstig intelligens fungerer som grensesnittet mellom en person og en datamaskin, der organisasjoner kan oppnå engasjerende toveis interaksjoner. Teknologien er vanligvis knyttet til callsentre og virtuelle assistenter/chatbots, selv om den kan brukes i praktisk talt alle vertikale bransjer. Takket være maskinlæring og AI-gjennombrudd i løpet av de siste par årene, har konversasjons-AI vokst utover chatboter til å inkludere en rekke brukstilfeller.

Conversational AI har eksistert nå i flere år, men teknologien har ikke vært klar for annet enn et laboratorium. Nå, takket være fremskritt innen AI-teknologi, akselerert databehandling og maskinlæringsmodeller, er imidlertid konversasjons-AI klar til å flytte inn i forretningsverdenen som en mainstream-teknologi, spesielt innen kundeopplevelse.

Tidligere denne måneden samlet et panel av eksperter fra T-Mobile, RingCentral og Hugging Face seg på NVIDIA 2021 GTC-konferansen for å diskutere hvordan samtale-AI har forbedret virksomhetene deres og for å dele trender som former fremtiden til denne nye teknologien. På konferansen avduket NVIDIA også Riva Custom Voice, et nytt verktøysett som kan brukes til å lage tilpassede stemmer med kun 30 minutters taleopptaksdata.

Innovasjonen som skjer rundt stemmesyntese og taledata vil “transformere måten virtuelle assistenter og chatboter kobler til og snakker tilbake på,” sa Kari Briski, NVIDIAs visepresident for programvareproduktadministrasjon for AI/HPC (høyytelses databehandling). Det er en enorm mulighet til å bruke data til å bygge nye konversasjons-AI-modeller som tar hensyn til folks aksenter og distinkte lydmiljøer, for eksempel støyende kaffebarer og utendørs sportsbegivenheter.

AI er i posisjon til å lære seg selv 

“I fremtiden vil vi se AI definere sine egne data,” sa Prashant Kukde, assisterende visepresident for Conversational AI ved RingCentral. Akkurat som et bakgrunnsfilter som visker ut et rotete rom, sa Kukde, AI kan fungere som et sanntidsbakgrunnsfilter for å eliminere en aksent når en ikke-morsmål snakker. Samtidig vil en person i den andre enden høre aksenten de er kjent med. Dette konseptet med toveis samtale-AI er bare ett eksempel på innovasjon på dette området, sa Kukde.

For å ta et skritt tilbake til i dag, er RingCentrals nåværende fokus å bruke AI på spontane samtaler som vanligvis finnes i virtuelle møter. Leverandøren av enhetlig kommunikasjon som en tjeneste (UCaaS) samler samtale-AI i sin eksisterende produktportefølje. Den lanserte nylig en ny automatisert oppsummeringsfunksjon som genererer tale-til-tekst møteoppsummeringer for å gi deltakerne en bedre opplevelse, og i sin tur forbedrer produktiviteten.

Hvorfor bør det være i alle kontaktsenter 

Mens T-Mobiles samtale-AI-distribusjoner spenner fra å støtte T-Mobile-ansatte til eksterne kunder. T-Mobile bruker kunstig intelligens i kontaktsentrene sine for å dokumentere samtaler mellom kunder og kundeserviceagenter, både gjennom chatbots og selvbetjening. Den trådløse operatøren bruker også AI til å transkribere samtaler fra tale til tekst for å hjelpe agenter som jobber i kundesentre (agentassist).

Da COVID-19 rammet, ble T-Mobile-telefonsentre oversvømmet med kundeforespørsler om betalingsplaner på grunn av de økonomiske vanskelighetene forårsaket av pandemien. T-Mobile var i stand til å automatisere denne enkle oppgaven ved å rulle ut en chatbot som hjalp kundene med å avtale betaling. Det T-Mobile ikke forventet var å få så høy avkastning på investeringen (ROI) ved å lansere et lite sideprosjekt, som ble til et mye brukt verktøy.

“Vi trodde chatboten bare ville leve for koronavirussesongen. Men i løpet av de første 18 månedene av dens levetid hadde vi en 750 prosent ROI fra denne chatboten,” sa Heather Nolis, T-Mobiles viktigste maskinlæringsingeniør. “Det er mange rutineoppgaver som skjer i våre kundesentre der mennesker ikke er nødvendige. Faktisk fant vi ut at omtrent 30 prosent av kundene våre ikke vil snakke med en person og foretrekker en samtaleassistent.”

Conversational AI fortsetter sin raske utvikling 

I løpet av de siste tre årene har konversasjons-AI utviklet seg til å inkludere nye typer modeller som gir bedre spådommer for å oppsummere og klassifisere tekst, forstå følelser og gjøre nye ting både i tale og syn. Fremover vil samtale-AI bli drevet av åpent samarbeid gjennom modeller, sjekkpunkter og implementeringer. Dette betyr at organisasjoner må omfavne mer pragmatisk kunstig intelligens, som takler forretningsproblemet i stedet for løsningen, sa Jeff Boudier, produktdirektør hos Hugging Face, skaperen av Transformers åpen kildekode for naturlig språkbehandling (NLP).

“En av hovedutfordringene de siste tre årene har vært å ta vitenskapen i hendene på utøverne,” sa Boudier. “Pragmatisk AI krever bruk av åpen kildekode-teknologi så mye som mulig. Det er en av de definerende egenskapene til maskinlæring, den er vitenskapsdrevet. Det er et levende system som folk bygger.”

Hugging Faces Transformers-bibliotek oppmuntrer til bidrag fra mange mennesker på tvers av forskjellige bransjer. Det er mer enn 1600 offentlige datasett tilgjengelig på omtrent 200 språk. Hvem som helst kan få tilgang til 70 000 gratis transformatormodeller, levert av et fellesskap på 1000 bidragsytere (og i vekst). Datasettene inkluderer alt fra å klassifisere tekst til å transkribere lyd til å gjenkjenne objekter i bilder og videoer.

En åpen, samarbeidende fremtid er det ultimate målet for samtale-AI. Men før organisasjoner kan komme dit, må de forstå hvorfor de bygger chatboter og andre AI-baserte tjenester i utgangspunktet. RingCentrals Kukde mener organisasjoner gradvis bør introdusere samtale-AI og posisjonere den på en måte som ikke får folk til å føle at den tar over jobben deres. Når AI introduseres gradvis, har organisasjoner tid til å samle tilbakemeldinger med mer data, bedre opplæring og fortsette å bygge for fremtiden, sa han.

Nolis mener en god strategi for organisasjoner er å lage chatbots som gir brukerne med en god opplevelse i stedet for å komme med forslag de allerede kjenner. Det er viktig å forstå hvor chatbots bør og ikke bør brukes, så folk elsker faktisk å snakke med chatbots i stedet for å tolerere dem og håpe å til slutt komme til en ekte person.

“Alle som bygger en chatbot bør lytte til brukerne deres ved å se på dataene de allerede har fra interaksjoner på sosiale medier, klager og samtaler med kundeserviceagenter,” konkluderte Nolis. “Hvis AI-agenten vi bygger ikke kan gjøre det et menneske kan, så lar vi et menneske håndtere det fordi vi virkelig bryr oss om kvaliteten på kundeservicen vår.”

Samarbeid