Googles AR-oversættelsesbriller: det er virkelig ikke så enkelt

0
143

Ved afslutningen af ​​sin I/O-præsentation i onsdags trak Google en overraskelse af typen “en ting mere”. I en kort video viste Google et par augmented reality-briller, der har ét formål – at vise hørbare sprogoversættelser lige foran dine øjenæbler. I videoen kaldte Googles produktchef Max Spear muligheden for denne prototype for “undertekster for verden”, og vi ser familiemedlemmer kommunikere for første gang.

Hold nu lige et sekund. Som mange andre har vi brugt Google Oversæt før og betragter det stort set som et meget imponerende værktøj, der tilfældigvis laver en masse pinlige fejl. Selvom vi måske stoler på, at den får os vejvisning til bussen, er det ikke nær det samme som at stole på, at den fortolker og videregiver vores forældres barndomshistorier korrekt. Og har Google ikke før sagt, at det endelig nedbryder sprogbarrieren?

I 2017 markedsførte Google realtidsoversættelse som en funktion af sine originale Pixel Buds. Vores tidligere kollega Sean O'Kane beskrev oplevelsen som “en prisværdig idé med en beklagelig henrettelse” og rapporterede, at nogle af de mennesker, han prøvede det med, sagde, at det lød som om, han var en fem-årig. Det er ikke helt, hvad Google viste i sin video.

Vi ønsker heller ikke at gå forbi det faktum, at Google lover, at denne oversættelse vil ske inde i et par AR-briller. Ikke for at ramme et ømt punkt, men virkeligheden med augmented reality har ikke rigtig engang indhentet Googles konceptvideo fra et årti siden. Du ved, den der fungerede som en forgænger til det meget udskældte og pinlige at bære Google Glass?

For at være retfærdig virker Googles AR-oversættelsesbriller meget mere fokuserede end hvad Glass forsøgte at opnå. Fra hvad Google viste, er det meningen, at de skal gøre én ting – vise oversat tekst – ikke fungere som en omgivende computeroplevelse, der kan erstatte en smartphone. Men selv da er det ikke let at lave AR-briller. Selv en moderat mængde omgivende lys kan gøre det meget vanskeligt at se tekst på gennemsigtige skærme. Det er udfordrende nok at læse undertekster på et tv med noget blænding fra solen gennem et vindue; Forestil dig nu den oplevelse, men fastspændt til dit ansigt (og med det ekstra pres ved at deltage i en samtale med en person, som du ikke kan forstå på egen hånd).

Selv en moderat mængde omgivende lys kan gøre det meget vanskeligt at se tekst på gennemsigtige skærme

Men hey, teknologien bevæger sig hurtigt – Google er muligvis i stand til at overvinde en forhindring, der har hindret sine konkurrenter. Det ville ikke ændre på det faktum, at Google Translate ikke er en magisk kugle til samtale på tværs af sprog. Hvis du nogensinde har prøvet at føre en egentlig samtale gennem en oversættelsesapp, så ved du sikkert, at du skal tale langsomt. Og metodisk. Og klart. Medmindre du vil risikere en forvansket oversættelse. En enkelt mundfuld, og du er måske bare færdig.

Folk taler ikke i et vakuum eller som maskiner gør. Ligesom vi kodeskifter, når vi taler til stemmeassistenter som Alexa, Siri eller Google Assistant, ved vi, at vi skal bruge meget enklere sætninger, når vi har at gøre med maskinoversættelse. Og selv når vi taler rigtigt, kan oversættelsen stadig komme ud akavet og misforstået. Nogle af vores Verge-kolleger, der er flydende på koreansk, påpegede, at Googles egen pre-roll nedtælling til I/O viste en hæderlig version af “Velkommen” på koreansk, som ingen rent faktisk bruger.

Den mildt sagt pinlige flub blegner i forhold til det faktum, at Google ifølge tweets fra Rami Ismail og Sam Ettinger viste over et halvt dusin baglæns, ødelagte eller på anden måde forkerte scripts på et dias under sin Translate-præsentation. (Android Police bemærker, at en Google-medarbejder har erkendt fejlen, og at den er blevet rettet i YouTube-versionen af ​​keynote.) For at være klar, er det ikke, at vi forventer perfektion – men Google forsøger at fortælle os, at det er tæt på at revne ægte -tidsoversættelse, og den slags fejl får det til at virke utroligt usandsynligt.

Google forsøger at løse et uhyre kompliceret problem. Det er nemt at oversætte ord; at finde ud af grammatik er svært, men muligt. Men sprog og kommunikation er langt mere komplekst end blot de to ting. Som et relativt simpelt eksempel taler Antonios mor tre sprog (italiensk, spansk og engelsk). Hun vil nogle gange låne ord fra sprog til sprog midt i sætningen – inklusive hendes regionale italienske dialekt (som er som et fjerde sprog). Den type ting er forholdsvis let for et menneske at analysere, men kunne Googles prototypebriller klare det? Lad være med de mere rodede dele af samtalen som uklare referencer, ufuldstændige tanker eller insinuationer.

Google forsøger at løse et uhyre kompliceret problem

Det er ikke sådan, at Googles mål ikke er beundringsværdigt. Vi vil absolut leve i en verden, hvor alle kommer til at opleve, hvad forskningsdeltagerne i videoen gør, og stirrer med måbende undren, når de ser deres kæres ord dukke op foran dem. At nedbryde sprogbarrierer og forstå hinanden på måder, vi ikke kunne før, er noget, verden har brug for meget mere af; det er bare, at der er lang vej igen, før vi når den fremtid. Maskinoversættelse er her og har været det i lang tid. Men på trods af det væld af sprog, den kan håndtere, taler den ikke menneskeligt endnu.

Relateret: