Suhas Uliyar of Oracle: AI, Immersive Tech og Conversational Interfaces Converge at Customer Experience

Innholdsfortegnelse:

Anonim

En av mine favorittkonferanser av året er denne ukens Oracle Openworld, hovedsakelig fordi Oracle er et selskap som konkurrerer i en rekke virksomhetsprogramkategorier. Og de har apps for den høyere enden av SMB-rommet. Dessverre kunne jeg ikke delta i dette året, men veldig heldig å snakke med Suhas Uliyar, Oracles VD for Bots, AI og Mobile Strategy.

Conversational Interface Technologies

Med kunstig intelligens, bots og voice-first-enheter som tre av de heteste temaene i dag, var jeg glad for at Suhas tok litt tid å dele tankene sine om hvordan kundetilfredshet blir formet i sanntid av disse teknologiene. Nedenfor er et redigert transkripsjon av samtalen vår. For å høre hele intervjuet, vennligst klikk på den innebygde spilleren nedenfor.

$config[code] not found

* * * * *

Småvirksomhetstendenser: Kanskje du kan gi oss litt av din personlige bakgrunn.

Suhas Uliyar: Jeg har vært i mobilindustrien de siste 21 årene, og hvert år har vært et utmerket og interessant år. Mobile fortsetter å endre hvert år, men jeg har vært med Oracle nå i fire år. Før Oracle, var jeg ledende VP i SAP for deres Internett av ting, og før det var jeg med Motorola Solutions som Chief Solutions Architect for Enterprise Applications.

Så jeg har vært i denne bransjen i 20 pluss år, og det har vært en veldig spennende tid det siste tiåret pluss. Ser på evolusjon av mobil og nå Tech Bots og conversational AI.

Småvirksomhetstendenser: Jeg hadde en samtale litt over et år siden med CTO og medstifter av Hubspot. Han sa noe som virkelig fascinert meg. Han tenkte bots og konversasjonsgrensesnitt kan være den viktigste teknologien de siste par tiårene. Siden du har vært og vært involvert i dette, er det så viktig? Er det vi ser med bots og voice-first devices … Er det på det nivået av betydning i tankene dine?

Suhas Uliyar: Absolutt, Brent. Jeg beskriver det som neste komme i nettleseren. Faktisk vil chatbots og AI gjøre for alle våre applikasjoner, og måten vi samhandler med data, hvilke nettlesere gjorde til klienter eller apps hvis du kan huske at transformasjonen.

Det kommer til å være det neste, jeg vil si, det neste tiåret handler om en samtale AI-første tilnærming som er mye høyere enn det vi så fra mobil-første tilnærming.

$config[code] not found

Small Business Trends: Så vi hører mye snakk om AI og med rette. Det skjer så mye i området. Men hvilken innvirkning har konversjonsgrensesnitt på AI?

Suhas Uliyar: Så AI er et bredt tema, Brent. Jeg tror det er flere smaker av AI, og måten vi pleier å kategorisere AI på, er denne fem buckets. Først handler det om maskinlæring, dyp læringsteknologi. En bestemt, naturlig språkforståelse er helt kritisk og viktig for suksessen til chatbots.

De andre kategoriene er like viktige. Den neste er dialog og kontekst. Den tredje er kunnskapstjenester. Den fjerde er data og innsikt. En jeg mangler … kognitive tjenester rundt tale- og bildegjenkjenning, så videre og så videre.

Nå er hvorfor naturlig språkforståelse veldig viktig? Hva driver virkelig med vedtaket av dette enorme momentet vi ser i samtalegrensesnittet. Det er et faktum at vi kan snakke på et språk som er mest naturlig for oss og det vi er mest komfortable på. Og når du ser på ting som Facebook Messenger eller ReachOut, WhatsApp, Telegram, Skype - alle de forskjellige chatbaserte meldinger. Det andre aspektet til kommunikasjon er at vi forventer og kommer i nærheten av øyeblikkelig øyeblikkelig respons fra den andre siden. I dag var mye det menneskelige for mennesker, men de to aspektene av en naturlig samtale og få øyeblikkelige svar har gjort denne kanalen meget attraktiv i forhold til å bruke e-post eller annen kommunikasjonskanal der den er "brann og glem" og vente om annen person reagerer eller ikke.

$config[code] not found

For at det skal skaleres for et foretak og kunne bruke chatbots for å virkelig aktivere denne adopsjonen, trenger du noe, et dataprogram, dvs. en chatbot for å håndtere denne skalaen. Og for å håndtere denne skalaen betyr det å kunne behandle det naturlige språket som kommer inn fra sluttbrukeren, og kunne deretter trekke ut relevant informasjon fra den kommunikasjonen, og deretter integrere seg i alle systemene i posten og kunne få informasjon tilbake. Enten det er for eksempel en finansinstitusjon der du prøver å sjekke balansen på kontoene eller flyselskapet ditt, hvor du finner ut om det er et gangesete tilgjengelig for deg å reservere, etc., etc.

For å lette dette, er naturlig språkkunnskap, dyp læring, maskinlæringsalgoritmer veldig kritisk om det er nevralt nettverk basert eller spektrumbasert. Så, uten AI og spesielt, naturlig språkforståelse, chatbots, etter min mening, ville ikke engang ta av. Det er nummer ett.

Det andre aspektet er det jeg nevnte som dialog og kontekst. Hvilken evne til å gifte en samtale med sluttbrukeren. Du vil sørge for at boten ikke er menneskelig, men samtidig vil du ha en anstendig samtale med en sluttbruker. Og vi vet alle, som mennesker, tror vi ikke helt lineært. Vi har en tendens til å gå av på forskjellige tangenter og basert på et bestemt spørsmål.

For eksempel, la oss si at jeg var ute etter å overføre penger fra en konto til en annen, eller jeg vil betale, sende penger til noen. Jeg sier, "Send penger til mamma.", For eksempel. Og boten svarer med, "Ja, det er flott. Hvilken konto vil du ha penger til å overføre? "Og jeg sier," kontoen. "Og det står" Hvor mye vil du sende mamma? "Og plutselig skjønner jeg faktisk jeg er ikke sikker på at jeg har nok penger i kontrollen konto. Jeg skal bare spørre botet et spørsmål som er "Hva er balansen min?". Og jeg vil ikke gi noen annen kontekst enn å si "Hva er balansen min?" Og boten må være smart, og konversjons kontekstdesigneren må være smart nok til å innse at du bytter kontekst nå, og du " går ned en annen vei og spør om balanser, kanskje oppfølgingsspørsmål kan være rundt, hva er transaksjonene, hva er innskudd eller sjekker som har ryddet. Og så kan du komme tilbake til den opprinnelige transaksjonen du hadde. Så dette er hva jeg mener ved å være ikke-lineær.

Og dialogen og konteksten må også fra et maskinlæringsperspektiv være smart nok til å forstå det, og jobbe sammen med din naturlige språkforståelse for å kunne behandle det.

En siste kommentar jeg skal gjøre om dette - jeg nevnte ordet 'utvinning'. Når jeg som sluttbruker får informasjon som de siste fem innskuddene i kontoen min, bør maskinlæringen være smart nok til å forstå de siste fem, og jeg trenger ikke å sitere alt dette. Maskininlæringsalgoritmen er smart nok til å trekke ut all den informasjonen, trekke ut den informasjonen som kontoen min, vet hvem jeg er, det jeg ber om, og konstruer integrasjonslaget for å få all informasjonen fra bakenden.

Så lenge svar, men AI er helt kritisk for suksessen til chatbots.

Småvirksomhetstendenser: Flott, og det har vært så mye dykking i, og bedrifter begynner virkelig deres konversasjonsgrensesnitt, ser på chatbots og ser på hvordan du kan integrere i ting som Facebook Messenger fordi det er der alle menneskene er og det er hvor mange samtaler finner sted.

Men hvor ser du stemmenes første enheter begynner å komme inn? Er dette noe som egentlig er for langt for mange bedrifter å bekymre seg for, eller kommer det raskere enn noen tror det er?

Suhas Uliyar: Jeg vil si at det kommer raskere … Du ser fra Alexa, men jeg er ikke sikker på om du har hentet Google Home nå, har muligheten til å ha multi-user-godkjenning på tale. Så, for eksempel, hvis datteren min sier, «Ring mor.», Det vil ringe til min kone, i motsetning til å ringe moren min. Og hvis jeg skulle si, "Ring mor.", Ville det si, "Du har ikke en mor."

Så jeg tror at sofistikering er allerede der, og det er mange virksomhetssikkerhetsfunksjoner som blir lagt til det, så jeg vil si at stemmen kommer raskt.

$config[code] not found

Men før vi kommer inn i disse, det jeg kaller, VPAer som Alexa eller Amazon Dot Echo, Google Home, Apple Pod. Brent, voice-first har vært der gjennom Siri, og Cortana og Google Voice. Det jeg vil si er, spesielt i bedriftsverdenen, spesielt i CRM og service og så videre, vil mange kunder kunne utvide sin eksisterende mobilapp eller deres eksisterende webgrensesnitt for å inkludere stemme i den.

Så hvis du for eksempel bruker Internet Explorer eller Chrome eller din favoritt nettleser, kan du utvide det på MacBook eller på Surface-enhetene dine og kunne bruke enten Siri eller Cortana til å koble til chatbot. Jeg tror ikke du må vente til alle omfavner Amazon Dot, Echo, Google Home. Vi har sett det siste året pluss hvor mobile enheter allerede har interaksjon ved hjelp av Siri, Cortana, Google Voice, etc. Og så har det vært en del av vår adopsjon som har skjedd i løpet av det siste året. Når det er mobilenheter som hadde mobilapper, har du nå utvidelser til chatteprogrammer i mobilappen eller i selve nettleseren. Innenfor det selv kan du bruke disse talekanaler.

Så de er allerede vedtatt, og vi ser en veldig naturlig adopsjon av disse talekanaler fordi folk, igjen, liker å snakke og bruke stemme. Det eneste som er, jeg vil si, hemmer veksten eller vedtakelsen av enheter som Dot Echo, Google Home i bedriften er sikkerhetslaget av det, som jeg tror blir raskt løst. I dag kan du bruke Alexa, for eksempel, til en hjemmebank eller integrering med banken din, som trolig er den sikreste som alle er opptatt av. Så jeg ser denne progresjonen veldig fort og veldig raskt ser vi dette nivået.

Nå er det eneste som stopper stemmen vedtatt, generelt, personvernet, ikke nødvendigvis å gjøre godkjenningen, autorisasjon av det, men hva folk kan lytte til. Så, sikkert, du kommer ikke til å gå i huset ditt med en gjeng med gjester og spørre din bot, Alexa eller Google Home, hva er balansen din. Du vil gjøre det i personvern. Problemet med det er at hvis du er i et offentlig miljø, uansett hvor du er, kan svaret tilbake i stemmen bli hørt av de fleste mennesker. Så jeg tror det kommer bare ned til brukstilfellet miljøene hvor du er.

Det er derfor et av områdene vi har stor fokus på, er å samle inn innsikt i vedtaket av disse kanalene. Det er ikke så enkelt som å si, "Folk vil ikke bruke stemme versus chat mot det." Det er også i stand til å forstå hva er de spesifikke brukssaken der enkelte kanaler er bedre enn de andre. Er det visse miljøer, er det visse tider hvor disse kanalene blir brukt eller vedtatt mer enn de andre kanalene?

Småvirksomhetstendenser: En av folkene på Amazon sa: "Nå er det på tide å begynne å designe opplevelser for øret." Må kunden din basere seg på hvordan de tradisjonelt gjør ting for å dra full nytte av å levere erfaringer som kunder begynner å Forvent med disse grensesnittene? Hva er noen av de største utfordringene bedrifter står overfor når de ser etter å implementere disse strategiene?

Suhas Uliyar: Brent, helt. For omtrent ti år siden forvandlet de digitale byråene seg til å skape sjarmerende mobilappopplevelser. Hvis du spurte meg dette spørsmålet for 14 år siden, ville jeg ha sagt, "Ja, bedrifter må virkelig se på å bringe på designere, UI / UX-designere for mobilappene dine." Og nå er vi på nøyaktig samme scene et tiår senere for konversjonsdesigneren. Og vi begynner å se visse selskaper bringe på folk eller starte med forskningskapasiteter. På Oracle har vi et konversert designteam som hjelper våre kunder til å forstå hvordan du best konfigurerer dette, slik at det gir den endelige opplevelsen til sluttbrukeren.

Så risikoen faktisk er i akkurat den modusen, som har riktig design for å ha de riktige opplevelsene. Og forstår også kanalen. Hvis du for eksempel designer for Facebook Messenger, er en mer visuell kanal litt enklere å håndtere, slik at når du sender informasjon tilbake og sender bilder eller videoer tilbake, er det lettere å konsumere i Messenger, Line, Skype osv.. Men du kommer ikke til å se det i Alexa eller Google Home eller andre typer kanaler. Og så må du virkelig forstå hvilke kanaler kundene dine kommer inn og har riktig design.

Småvirksomhetstendenser: Hvis vi peer ut et år eller to fra nå, hvor skal vi være med konversasjonsgrensesnitt? Hvor skal vi være med stemme-første grensesnitt, tror du?

Suhas Uliyar: Jeg tror vi kommer til å se en konvergens av immersive teknologier og konverserende grensesnitt.Så ting som forstørret virkelighet, virtuell virkelighet … En av utfordringene i den virtuelle virkeligheten i dag er at typen enheter begrenser det du kan og ikke kan gjøre. Men jeg ser det åpne. Google Glasses var et eksperiment, som viste at det kunne potensielt fungere - det trengte noe arbeid. Men forestill deg en dag hvor du ikke nødvendigvis trenger å se på mobilenhetsvariablene i seg selv, er conversational-led. Så nå kan du være veldig - i en veldig naturlig modus - kunne se verden på en tredimensjonal måte og kunne skille mellom opplysninger du trenger ved hjelp av konversasjonsgrensesnitt.

$config[code] not found

Det er mye utover det. I bare i verden av AI, for eksempel bildegjenkjenning, sentimentanalyse, Q og A-analyse. Vi har kunnskapsgrafer, så jeg kan … CRM, for eksempel, forestille seg dataene selgeren spør CRM-databasen, "Hei, det er et nytt kvartal. Fortell meg de 10 salgsmulighetene som hjelper meg med å gjøre kvoten min. "Og back-end, bot og AI-motoren tar ikke bare de potensielle førerene, men de kan også gifte seg med informasjon fra andre kilder, enten det er LinkedIn eller Reuters eller andre ting som beregner tilbøyelighet til kunden til å kjøpe produktet og fremhever det til deg basert på spørsmålet du spurte. Og den informasjonen kan sendes til deg uansett hvor du vil. Enhetene kan være som for eksempel HoloLens som Microsoft jobber med. Så jeg vil si at vi kommer inn i de neste årene der enhetene skal ta en veldig interessant form gjennom 3D-virtuell virkelighet, men samspillet med det vil alle være talebasert.

$config[code] not found

Dette er en del av One-on-One Interview-serien med tankeledere. Transkripsjonen er redigert for publisering. Hvis det er et lyd- eller videointervju, klikker du på den innebygde spilleren over, eller abonnerer via iTunes eller via Stitcher.