Stemmebrugergrænsefladesign: Nye løsninger på gamle problemer

Hvorfor stemme? Hvorfor nu? Vi undersøger, hvorfor stemmeteknologi springer fra en årtiers lang slumre til mainstream-succes.

I de sidste par år har stemmebrugeroplevelser nået kritisk masse. Cortana. Alexa. Google.

Som mange teknologier, der ser friske ud fra pressen (virtual reality, nogen?), Har stemmebrugergrænseflader været i den offentlige bevidsthed i årtier og i forskningskredse endnu længere. Bell Laboratories debuterede med deres "Audrey" -system (den første stemmestyrede UI) i 1952 og foregik endda Star Trek's ambitiøse stemmestyrede computer!

Stemmegenkendelsessystemer har været en realitet i mere end et halvt århundrede. (Foto: AndroidAuthority)

Men taleforskere har længe kendt magien ved at omdanne analoge signaler til digital betydning ville tage et omfang af processorkraft, der langt oversteg de tidlige ydmyge rødder. Det er først for nylig, i en tid med allestedsnærværende cloud computing, at forbrugerne har adgang til tilstrækkelig processorkraft, til at deres egne stemmer kan høres og fortolkes i realtid.

En ny grænse

Som brugeroplevelsesdesignere blev vi sandsynligvis trænet i at skabe oplevelser designet til grafisk output og fysisk input. Jeg ved, at stemmegrænseflader var langt fra fantasien fra akademikerne i min tid - under mine seniorprojekter var vi fortrolige med Palm Pilot og af håndskriftinput, der forudsigede dagens berøringsskærms-UI'er.

Og alligevel, ligesom vi tilpassede de færdigheder, vi havde lært til den modige nye verden af ​​input ud over musen og tastaturet, så er det tid for nogle af nutidens designere at udvide vores færdigheder, så de inkluderer stemmeinput og det resulterende output lag.

Berørings- og pennetilførsel, som det ses i Palm Pilot's Graffiti-inputsprog, var engang et underligt bagvand i designudforskning. Stemmebrugergrænseflader er kommet frem fra denne fase.

I de sidste par år er et lille, men voksende antal designere af brugeroplevelse blevet fuldt designede stemme brugergrænseflade (VUI) designere. Selvom det kan virke en finurlig specialfærdighed, så var mobildesign for 10 år siden. Stemme brugergrænsefladesign vil snart blive en nøgle strategisk færdighed for en ny generation af designere.

Vores ældste interface

Mennesker har udviklet kunsten at samtale i tusinder af år. Det er en færdighed, som voksne trækker på instinktivt hver dag i det meste af deres liv.

Tale er en af ​​de første færdigheder, vi tilegner os i barndommen - og en af ​​de sidste, vi mister i vores solnedgangsår, længe efter vores vision og motoriske færdigheder begynder at falme.

Den dybt instinktive karakter af tale giver specifikke begrænsninger og nye udfordringer. Vores hjerner er grundlæggende forbundet til at fortolke talekilden som menneskelig. Med få undtagelser forventer vi også et talt svar, når vi taler med nogen. Således tapper en enhed, der taler til os, en dyb flod af psykologiske tilpasninger, og underlagt et sæt antagelser, som en pixelbaseret brugergrænseflade aldrig vil støde på.

Dette er også grunden til - i det mindste i øjeblikket - at designe til stemmebrugeroplevelser i sagens natur adskiller sig fra samtale brugergrænseflader, som i øjeblikket er synonyme med tekstbaserede chatbots. Vores tusinder af år med talebaseret opfattelse og psykologi forstyrrer (endnu) ikke vores evne til at nyde skriftlige samtaler.

Dagens Voice UX: Kommando og kontrol

Men lad os være super klare: den stemmebrugeroplevelse, som forbrugerne lærer at bruge i dag, er normalt FAR fra samtale. Vi er stadig i de tidlige dage.

Selvom nogle spillere bruger “stemmelig UI” og “samtale UI” om hverandre, er der efter min bemærkning endnu ingen rigtige samtale brugergrænseflader. Det er stadig lidt mere nøjagtigt at blot kalde Alexa, Google Home og Cortana “naturlige sprog” stemmekontrolsystemer, men sondringen hviler i øjeblikket på de typer opgaver, vi beder vores stemmebaserede assistenter om at udføre. Faktisk er nøglen ordet “opgave”. Disse enheder er alle specialiserede til at give kunderne mulighed for at fuldføre opgaver ved hjælp af deres stemme.

Som eksempel er den "naturlige sprog" måde at slukke lys på ikke dybt samtale. Du ville ikke vende dig til din ægtefælle og sige: ”Er det ikke en kølig aften? Jeg har det lidt koldt. Skru termostaten op, vil du ikke? ”(Medmindre du er med i et Oscar Wilde-skuespil, måske.) Du ville sandsynligvis bare udslette" Skru termostaten ned. "Mindre af en samtale, mere af en anmodning.

Desuden er den måde, du udfører enkle opgaver på, næsten altid den samme, uanset følelser, humør eller kontekst. Måske kan du tilføje "venligst", hvis du har en god dag ...

Det betyder ikke, at der ikke er ret stor kompleksitet i at få denne stemme-brugergrænseflade til højre - men i modsætning til virkelig samtale-brugergrænseflade, der maler i adjektiver og nuance, handler kommando- og kontrol-stemme-UI i enkelhed og robusthed.

På nuværende tidspunkt bruger stemme-brugergrænsefladesignere ofte en betydelig mængde designtid med at fokusere på, hvordan de kan hjælpe kunderne, når ting går galt. Hvad sker der, hvis nogen bare siger “Indstil en alarm” uden at angive et tidspunkt? Eller hvis systemet ikke hørte “AM” i stedet for “PM”? Ved at forstå, hvordan en stemmegrænseflade kan mislykkes, kan VUI-designere finde måder at omdanne disse fejl til eventuelle succeser på.

Tilpasning af dine designinstinkter

Min tid med at arbejde på VUI til Windows Automotive, Cortana og Alexa gav mig en påskønnelse af forskellene i designprocessen mellem visuel og stemmebaseret UX og en lidenskab for at dele den viden, da den blev delt med mig af nogle anerkendte kolleger sammen vejen (tak Lisa Stifelman, Sumedha Kshirsagar og Stefanie Tomko, blandt andre).

Som et resultat af denne lidenskab fik jeg æren af ​​at debutere på min workshop At give stemme til dine stemmedesign på Interaction 17, en global designkonference sponsoreret af Interaction Design Association (IxDA).

I min # Ixd17-workshop startede vi med en primer om nøglebegreber og -begreber, der vedrører talevidenskomponenten i stemmegruppen: hvordan en analog stemmemelding "ytring" konverteres til et digitalt systems repræsentation af en kundes "hensigt". Normalt spænder denne fortolkningsproces over flere forskellige, men tilsluttede systemer, og det er grunden til, at cloud computing smadrede VUI-døre vidt åbent.

Vi udforskede almindelige situationsbegrænsninger og nogle enkle retningslinjer for at sætte dem op til succes i den sidste fase af klassen, hvor vi gik gennem en ende-til-ende designproces med designleverancer til en tredjeparts stemmefærdighed.

Walking workshop-deltagere gennem processen med at opbygge en interaktionsflow for en stemmefunktion fra tredjepart på # IxD17 - ironisk nok i et studie i NYC's School of Visual Arts. Fotokredit Malika Chatlapalli.

Mine deltagere imponerede mig virkelig med deres tankevækkende spørgsmål, der kørte på nogle meget dybere udfordringer, som stemmebrugerne står overfor, som kontekstuel bevidsthed og ”hukommelse” over tid. (En senere artikel vil beskæftige sig med et par af disse koncepter.) Disse praktikere er en klar indikator for, at mange af nutidens designere kan overføre deres eksisterende designfærdigheder til stemme med nogle enkle reframing og lidt tilføjet emneekspertise.

Stemmeindgang ændrer liv

Selvom de nuværende stemme-UI'er er en smule mere forenklede end drømmere blandt os gerne vil se, kan vi ikke miste synet af de meget virkelige fordele, som stemmeoplevelser giver, også forenklet, når de gøres korrekt.

Den største og mest indflydelsesrige fordel, som stemmebrugeroplevelser giver, er enormt forbedret tilgængelighed. Leder du efter inspiration? Gå og læse anmeldelser af Amazon Echo. Der er så mange historier fra bevægelseshæmmede kunder, synshæmmede kunder og kunder med kognitive svækkelser om, hvordan enheden har ændret deres liv derhjemme.

Det er det rigtige kvantespring her. Stemmebrugergrænseflader løser ikke nye NYE problemer… endnu. Men de løser eksisterende problemer på nye måder, der markant forbedrer livet for mange individer.

Indstilling af alarmer, få svar på informationsspørgsmål, der let findes på Wikipedia ... ja, vi kunne gøre disse ting før på vores smartphones og vores computere. Men vi var nødt til at rette opmærksomheden mod en enhed for at gøre det. Og i det øjeblik udveksler vi lidt af vores menneskehed midlertidigt for denne udveksling af tjenester.

Stemme UI'er tillader os at forblive fuldt menneskelige i vores interaktioner. De giver os mulighed for at forblive mere forbundet med de andre mennesker i rummet. Og disse VUI'er ændrer livet for dem, der ikke nemt kan tilpasse sig til traditionel computerbrug.

Så behovet for stemmebrugeroplevelser - selv dagens afgrøde af kontrolfokuserede, mindre samtale UI'er - er reelt, og disse oplevelser ændrer liv. Du erstatter muligvis ikke din eksisterende oplevelse, men selv tilføjelse af stemme-UI for at udvide en eksisterende oplevelse kan have en stor indflydelse på dine kunder.

Find din egen stemme

Inspireret? Det håber jeg. Jeg udfordrer enhver designer til at begynde at se på taleinput som en vigtig ny måde at oprette forbindelse til kunderne. Er der usete muligheder, der kan ændre den måde, kunderne bruger dit produkt på? Endnu bedre, transformere deres liv?

Og selvom du er en "traditionel" designer, skal du ikke blive truet med det samme. Mange udøvere startede, ligesom du gjorde, i en traditionel visuelt orienteret verden. Designere er iboende nysgerrige og mentalt modstandsdygtige. Du kan genopfriske din tænkning med noget ny viden og et par tilpassede færdigheder.

Men der er så meget mere til verdenen af ​​stemmebrugeroplevelser. I mit næste indlæg taler vi om samtale-brugergrænseflader, et varmt emne, der dukkede gentagne gange op på Interaktion 17. Og vi vil tale om, hvordan stemmebrugergrænsefladerne og tekstbaserede samtale-brugergrænseflader i dag snart kan begynde at krydse hinanden .

Må stemmen være med dig.

Cheryl Platz har arbejdet på en række stemmebrugergrænseflader, herunder Echo Look og Echo Show, Amazons Alexa-platform, Windows Automotive og Cortana. Hun er i øjeblikket Design Lead for Cloud + AI Admin Experience team hos Microsoft.
Som grundlægger af designuddannelsesfirmaet Ideaplatz turnerer Cheryl også over hele verden med sine anerkendte naturlige brugergrænsefladesamtaler og workshops. Vil du fortsætte samtalen? Følg hende på Twitter.

Følg os på Dribbble, Twitter og Facebook eller tilmeld dig vores Windows Insider-program for at være uvidende om Microsoft Design. Og hvis du er interesseret i at blive medlem af vores team, skal du gå til aka.ms/DesignCareers.