Pixel by Pixel: Hvordan Google forsøger at fokusere og sende fremtiden

0
174

Historien om dette års Google I/O startede faktisk for tre år siden.

Ved I/O 2019, på scenen i Shoreline Auditorium i Mountain View, Californien, lagde Rick Osterloh, Googles SVP for enheder og tjenester, en ny vision for fremtidens computere. “I den mobile æra ændrede smartphones verden,” sagde han. “Det er super nyttigt at have en kraftfuld computer, uanset hvor du er.” Men han beskrev en endnu mere ambitiøs verden ud over det, hvor din computer slet ikke var en ting i din lomme. Det var overalt omkring dig. Det var alt. “Dine enheder arbejder sammen med tjenester og kunstig intelligens, så hjælpen er overalt, hvor du vil have den, og den er flydende. Teknologien falder bare i baggrunden, når du ikke har brug for den. Så enhederne er ikke systemets centrum – det er du.” Han kaldte ideen “ambient computing” og nikkede til et koncept, der har fløjet rundt på Amazon, Apple og andre virksomheder i løbet af de sidste par år.

En nem måde at fortolke ambient computing er omkring stemmeassistenter og robotter. Sæt Google Assistant i alt, råb af dine apparater, færdig og færdig. Men det er kun begyndelsen på ideen. Den omgivende computer, Google forestiller sig, er mere som en skytsengel eller en supersansende Star Wars-robot. Det er en motor, der forstår dig fuldstændigt og følger dig rundt, suser igennem og løser alle tingene i dit liv. Den lille (hvornår er min næste aftale?) og den store (hjælp mig med at planlægge mit bryllup) og det hverdagsagtige (sluk lyset) og det livsændrende (får jeg et hjerteanfald?). Hvor og hvornår og hvordan betyder ikke noget, kun hvad og hvorfor. Den omgivende computer er ikke en gadget – den er næsten et væsen; det er den større-end-summen-af-dens-dele, der kommer ud af en million perfekt forbundne ting.

Hvilket er et problem for Google. Virksomheden er berømt decentraliseret og ikke-hierarkisk, og det kan nogle gange virke som om, at hver enkelt ingeniør i personalet får grønt lys til at sende, hvad end de har lavet den uge. Og så, siden den dag i 2019, har Google for det meste fortsat med at gøre, hvad Google altid gør, hvilket er at bygge en utrolig mængde ting, ofte uden nogen mærkbar strategi eller plan bag sig. Det er ikke, at Google ikke havde en større vision; det er bare, at ingen syntes at være interesseret i at udføre det forbindende arbejde, der kræves for den altomfattende, perfekt forbundne fremtid, Osterloh havde forestillet sig. Google var ved at blive et lager fyldt med fede ting i stedet for et økosystem.

< p id="qXAOVH">Men i løbet af de sidste par år er Google begyndt at ændre sig for at klare denne udfordring. Osterlohs enhedsteam har for eksempel fuldstændig nulstillet sit forhold til Android-teamet. I lang tid opretholdt virksomheden stolt en mur mellem Pixel og Android og behandlede dets interne hardwareteam som enhver anden producent. Nu behandler Google Pixel som spydspidsen: det er ment som både en flagskibsenhed og en udviklingsplatform, hvorigennem Google kan bygge funktioner, som den derefter deler med resten af ​​økosystemet.

“Vi samdesigner virkelig, hvor tingene er på vej,” sagde Osterloh. “Jeg tror, ​​at det bare er karakteren af, hvordan computere har ændret sig, og computermodeller har ændret sig.” Begge hold deler visioner om en omgivende fremtid, sagde han. “Og vi arbejder på det sammen.”

Google behandler Pixel som spydspidsen: det er ment som både en flagskibsenhed og en udviklingsplatform

Rundt omkring i virksomheden begynder disse relaterede teams og produkter at komme tættere på hinanden. De bygger på samlet teknologi, som Googles tilpassede Tensor-processorer, og på almindelige koncepter som konversations-AI.

Som et resultat heraf føles Google I/O usædvanligt… sammenhængende i år. Google forsøger – hårdere end jeg kan huske – at bygge produkter, der ikke kun fungerer godt, men fungerer godt sammen. Søgning er ved at blive et multisensorisk forslag med flere enheder, der både forstår, hvem der søger, og hvad de virkelig leder efter. Det udvider også søgeoplevelsen langt ud over blot spørgsmål og svar. Det gør Android mere kontekst- og indholdsbevidst, så din telefon ændres, så den matcher de ting, du gør på den. Det lægger vægt på naturlige interaktioner, så du kan få information uden at huske et stivt sæt kommandoer. Det opbygger det hardware-økosystem, det har brug for, for at få alt det til at fungere overalt og softwaren til at matche.

Lad os nu være helt klare: Googles arbejde er kun lige begyndt. Den skal vinde markedsandele i enhedskategorier, som den ikke har kunnet erobre i årevis. Det skal bygge nye oplevelser inde i nye og gamle enheder. Den skal finde ud af, hvordan den løser Android-fragmentering mellem dens enheder og de markedsledende enheder fra virksomheder som Samsung, hvilket kan være den sværeste del af alle. Og det skal blive mere til stede i brugernes liv og udtrække mere information fra dem, alt sammen uden at forstyrre regulatorer, skrue op for søgeannoncevirksomheden eller krænke brugernes privatliv. Den omgivende computer ville aldrig komme let, og Google har gjort sin egen indsats hårdere på utallige måder gennem årene.

Men i det mindste ser det ud til, at virksomheden endelig forstår, hvad en omgivende computer kræver – og hvorfor “den har assistent!” er ikke et tilstrækkeligt svar — og begynder arbejdet med at få det gjort.

Én computer, mange skærme

Da jeg satte mig ned med Osterloh over et videoopkald et par dage før I/O, begyndte han at blive poetisk over Googles hardwareafdeling, og så tit kiggede han ned lige uden for billedet. Jeg spurgte, hvad han så på, pludselig mistænkeliggjort, at det var en masse uudgivne enheder. Jeg havde ret. “Dette er Pixel 6,” sagde han og holdt sin nuværende enhed op. “Og så har jeg en Pixel 6A, i et meget forklædt etui,” denne gang holder jeg en sort gummisten op omkring den uudgivne enhed. “Og jeg har en Pixel 7, også i forklædning.” Han holdt også sit håndled op med et Pixel Watch fastgjort til det.

Mens vi talte, gentog Osterloh den sædvanlige Google-pitch for ambient computing, men denne gang kom det med et lille twist til det velkendte. Den langsigtede vision er stadig en version af Google, der altid er der, der fungerer overalt med alt hele tiden, men lige nu? Lige nu handler det stadig om den ultrahurtige processor i lommen. “Sikkert i en overskuelig fremtid føler vi, at den mest afgørende del af det er lommecomputeren, mobiltelefonen,” sagde han. Smartphonen er centrum for computeruniverset for milliarder af brugere over hele kloden, og derfor vil den første version af Osterlohs ambient-computer også blive bygget op omkring en smartphone.

Pixel 7 og Pixel 7 Pro er Googles næste flagskibstelefoner. Billede: Google

Det er derfor, da Google satte sig for at lave Pixel 6A – som i høj grad er en omkostningsbesparende øvelse, der forsøgte at forvandle en $600 telefon til en stadig troværdig $449 – en dyr del overlevede nedskæringen. “Målet for, hvad Pixel er, handler om at have en fantastisk brugeroplevelse, der bliver ved med at blive bedre over tid,” sagde Osterloh. “Og med det som kernen, er det, du indser, ligesom det, der er vigtigt at have på tværs af disse enheder, Tensor.”

Den Google-designede Tensor-processor var nøglefunktionen, der blev introduceret sammen med Pixel 6, hovedsagelig som en måde at forbedre dens on-device AI-funktioner til talegenkendelse og mere. Og nu ser det ud til, at det bliver en fast bestanddel af linjen: Osterloh sagde, at alle de kommende Pixel-telefoner – og endda den Android-drevne tablet, holdet arbejder på til udgivelse næste år – vil køre på deres Tensor-processor.

Smartphonen er universets centrum for nu, men du kan allerede begynde at se, hvordan det kan ændre sig. De nye Pixel Buds Pro er for eksempel et kraftfuldt sæt støjreducerende hovedtelefoner, men også en håndfri grænseflade til en trådløst forbundet computerenhed.

“Enheder, der kan være tæt på dit øre og sætter dig i stand til at kommunikere i realtid med computeren, er en absolut essentiel del af ambient computing,” sagde Osterloh og bemærkede, at han nu laver det meste af sin e-mail via stemmen. På samme måde er det nye Pixel Watch på nogle måder et telefontilbehør, der leverer notifikationer og lignende til dit håndled og tilbyder en anden grænseflade til den samme kraft i din lomme. Men Google sælger også en LTE-version, så du kan få adgang til Assistant eller betale med Google Wallet uden at have brug for din telefon i nærheden. Og den tablet, når den kommer, vil have alle de samme Pixel-funktioner i en større skal.

Pointen er, at det i det lange løb er ligegyldigt, hvilken enhed du bruger. “Hvor computerkapaciteten er, og hvor kraftfulde enhederne selv er, burde ikke betyde noget for brugeren,” sagde Osterloh. “Jeg tror, ​​de bør se, er at øge kapaciteten.”

Pixel- og Android-holdene har for nylig vedtaget en slags mantra: Better Together. Meget af det, der er nyt i år i Android 13, er ikke whizbang-nye funktioner, men små justeringer, der skal gøre økosystemet lidt mere problemfrit. Gennem en opdatering til Chrome OS Phone Hub-funktionen vil du være i stand til at bruge alle dine beskedapps på din Chromebook, ligesom på din telefon. Support til Matter smart home-standarden er nu indbygget i Android, hvilket burde gøre opsætning og styring af nye enheder meget nemmere. Google udvider understøttelsen af ​​sine Cast-protokoller til at sende lyd og video til andre enheder og forbedrer sine Fast Pair-tjenester for at gøre det nemt at forbinde Bluetooth-enheder. Den har talt om disse funktioner siden CES i januar og har tilmeldt sig en imponerende liste over partnere.

 Fast Pair and Matter-support kommer til Android 13. Billede: Google

< p id="KoZUBX">Det lyder lidt som om, at Google endelig så en Apple-annonce og opdagede, at det virkelig hjælper at lave hardware og software sammen. Der kan man bare se! Men Googles position er virkelig vanskelig her. Googles annoncevirksomhed er afhængig af en forbløffende stor skala, som den får mest takket være andre virksomheder, der bygger Android-produkter. Det betyder, at Google skal holde alle disse partnere glade og føle, at de er på lige fod med Pixel-teamet. Og den kan simpelthen ikke kontrollere sit økosystem, som Apple kan. Det bekymrer for evigt om bagudkompatibilitet, og hvordan tingene vil fungere på enheder af alle størrelser, priser og strøm. Det skal skabe støtte for at kunne foretage store ændringer, hvorimod Apple bare forstærker fremtiden.

Men Google er blevet mere og mere modig til at skubbe videre med Pixel-mærket. Det har den råd til, fordi Pixel næppe er en reel salgstrussel for Samsung og andre. (Desuden, hvor skal Android-producenterne hen? Windows Mobile?) Men det skal det også, fordi Google kun vinder, hvis økosystemet køber ind, og Pixel er Googles bedste chance for at modellere, hvordan hele Android-økosystemet skal se ud. Det er, hvad Osterloh ser som sit job og i høj grad hans teams grund til at være det.

Hvis Pixel aldrig bliver en storsælger (og det ser ud til, at den ikke bliver det), er den eneste måde, Google kan vinde på i det lange løb, at bruge det som en måde at presse Samsung og andre til at bevare Googles funktioner og ideer. Google har en chance for at føre endnu mere inden for tablets og smartwatches, to Android-markeder med desperat behov for en vej frem. “Telefonen er bestemt super vigtig,” sagde Sameer Samat, en VP for produktstyring på Android-teamet. “Men det er også ved at blive meget tydeligt, at der er andre enhedsformfaktorer, som er komplementære og også afgørende for, at en forbruger kan beslutte sig for, hvilket økosystem man køber ind i, og hvilket økosystem man skal leve.”

Det er en anden måde at sige, at den eneste måde, Google kan komme til sine omgivende computerdrømme, er at sikre, at Google er overalt. Sådan bogstaveligt talt overalt. Det er derfor, Google fortsætter med at investere i produkter i tilsyneladende hver eneste kvadratcentimeter af dit liv, lige fra dit tv til din termostat til din bil til dit håndled til dine ører. Fremtiden for ambient-computing kan være én computer til at styre dem alle, men den computer har brug for et næsten uendeligt sæt brugergrænseflader.

Uden for tekstfeltet

Det andet trin til at få ambient computing til at fungere er at gøre det virkelig, rigtig nemt at bruge. Google forsøger ubønhørligt at fjerne enhver smule friktion, der er involveret i at få adgang til dets tjenester, især assistenten. For eksempel, hvis du ejer en Nest Hub Max, vil du snart være i stand til at tale med den bare ved at kigge ind i kameraet, og du vil være i stand til at indstille timere eller slukke lyset uden overhovedet at udstede en kommando.

“Det er lidt ligesom du og jeg har en samtale,” sagde Nino Tasca, en direktør for produktledelse på Googles taleteam. “Nogle gange vil jeg bruge dit navn til at starte en samtale. Men hvis jeg allerede stirrer på dig og spørger dig direkte, ved du, at jeg taler til dig.” Google er besat af at gøre alting naturligt og konverserende, fordi det er overbevist om, at det faktisk er vigtigere at gøre det nemt end at gøre det hurtigt.

Den samme logik gælder for søgning, som hurtigt er ved at blive en multisensorisk, multimodal ting. “Den måde, du søger efter information på, bør ikke være begrænset til at indtaste søgeord i et søgefelt,” sagde Prabhakar Raghavan, Googles SVP for viden og informationsprodukter. “Vores vision er at gøre hele verden omkring dig søgbar, så du kan finde nyttig information om hvad end du ser, hører og oplever, på hvilken måde der er mest naturlig for dig.”

Det har tvunget Google til at genopfinde både input fra søgning, lænet sig op af stemme og billeder lige så meget som tekstboksen, såvel som output. “Nogle mennesker synes virkelig, det er nemt at behandle video,” sagde Liz Reid, en VP of engineering på søgeholdet, “og andre mennesker vil finde det distraherende. På den anden side er nogle menneskers læsefærdigheder ikke så gode, og så en lang webside, som du skal læse igennem, tager ikke kun tid, men de vil fare vild, og en video, der er talt på deres sprog, er virkelig intuitiv. ” Google byggede et fandens tekstfelt, men det er ikke længere nok.

4742Multisearch er Googles måde at kombinere værktøjer i en enkelt søgning. Billede: Google

Det mest oplagte resultat af dette arbejde er multisøgning. Ved hjælp af Google-appen kan du tage et billede af en kjole – i Googles eksempler er det altid en kjole – og derefter skrive “grøn” for at søge efter den kjole, men med grønt. Det er den slags ting, du bare ikke kunne gøre i en tekstboks.

Og på I/O viste Google også et værktøj til at køre multisøgning på et billede med flere ting i: Tag et billede af jordnøddesmørgangen, skriv “nøddefri”, og Google vil fortælle dig, hvilken du skal købe. “Vi opdager, når vi låser op for nye muligheder, at folk havde informationsbehov, som bare var for svære at udtrykke,” sagde Reid. “Og så begynder de at udtrykke dem der.” Søgning plejede at være én ting, Lens var en anden, stemme var en tredje ting, men når man kombinerer dem, bliver nye ting mulige.

Men den virkelige udfordring for Google er, at det nu er meget mere end en spørgsmål-og-svar-motor. “Hvad der er bedst, er egentlig ikke, i mange af disse tilfælde, en streng stak rang, vel?” sagde Reid. “Mange af disse nyere use cases, der er en stil eller en smagskomponent.” Shopping er blevet vigtigt for Google, for eksempel, men der er ikke noget enkelt korrekt svar for “bedste t-shirt”. Plus, Google bruger søgning mere og mere som en måde at holde dig inde i Googles økosystem; søgefeltet er i stigende grad blot en launcher til forskellige Google-ting.

Så i stedet for blot at sigte efter at forstå internettet, er Google nødt til at lære at forstå sine brugere bedre end nogensinde. Hjælper det, at Google har et enormt lager af førstepartsdata, som det har indsamlet i løbet af de sidste par årtier om milliarder af mennesker rundt om i verden? Selvfølgelig gør det det! Men selv det er ikke nok til at få Google, hvor det er på vej hen.

Om annoncerne: Glem ikke det faktum, at selv i en verden uden for søgefeltet er Google stadig en reklamevirksomhed. Ligesom Amazons ambient computing-vision altid ser ud til at vende tilbage til at sælge dig ting, vil Google altid vende tilbage til at vise dig annoncer. Og sagen med hele Googles vision er, at det betyder, at en virksomhed, der ved meget om dig og ser ud til at følge dig overalt… vil vide endnu mere om dig og følge dig endnu flere steder.

Google ser ud til at gøre alt for at prøve at få brugerne til at føle sig godt tilpas med dets tilstedeværelse

Google ser ud til at gå ud af sin måde at forsøge at få brugerne til at føle sig godt tilpas med sin tilstedeværelse: den flytter mere kunstig intelligens til selv enheder i stedet for at behandle og gemme alt i skyen, den skubber mod nye systemer til dataindsamling, der ikke gør det. Identificer en enkelt person rent, og det giver brugerne flere måder at kontrollere deres egne privatlivs- og sikkerhedsindstillinger på. Men det omgivende computerliv kræver alligevel en afvejning af privatlivets fred, og Google er desperat efter at gøre det godt nok til, at det er det værd. Det er en høj bar og bliver højere hele tiden.

Faktisk er hele denne proces fuld af høje barrer for Google. Hvis den vil bygge en omgivende computer, der virkelig kan være alt for alle mennesker, bliver den nødt til at bygge et gennemgribende økosystem af enormt populære enheder, der alle kører kompatibel software og tjenester, samtidig med at de også problemfrit integreres med et massivt globalt økosystem af andre enheder , herunder dem, der er fremstillet af sine direkte konkurrenter. Og det er bare for at bygge grænsefladen. Tidligere er Google nødt til at gøre assistenten til noget virkelig behageligt at interagere med hele dagen og få sine tjenester til at tilpasse sig alle behov og arbejdsgange hos brugere over hele kloden. Intet ved det vil være nemt.

Men hvis du skeler lidt, kan du se, hvordan det ville se ud. Og det er det, der har været så frustrerende ved Googles tilgang i de seneste år: Det føles som om alle puslespilsbrikkerne til fremtiden sidder der i Mountain View, spredt rundt på campus uden at nogen er opmærksomme. Men nu ser det ud til, at Google som virksomhed begynder at samle dem.