På sin Search On-begivenhed i dag introducerede Google flere nye funktioner, der tilsammen er de stærkeste forsøg på at få folk til at gøre mere end at skrive et par stykker ord i et søgefelt. Ved at udnytte sin nye Multitask Unified Model (MUM) maskinlæringsteknologi på små måder håber virksomheden at starte en dydig cyklus: det vil give flere detaljer og kontekstrige svar, og til gengæld håber det, at brugerne vil spørge mere detaljeret og kontekst -rig spørgsmål. Slutresultatet, håber virksomheden, bliver en rigere og dybere søgeoplevelse.
Google SVP Prabhakar Raghavan overvåger søgning sammen med Assistant, annoncer og andre produkter. Han kan lide at sige – og gentog i et interview i søndags – at “søgning ikke er et løst problem.” Det kan være rigtigt, men de problemer, han og hans team forsøger at løse nu, har mindre at gøre med at snyde nettet og mere at gøre med at tilføje kontekst til det, de finder der.
AI hjælper Google med at undersøge de spørgsmål, folk stiller
For sin del vil Google begynde at bøje sin evne til at genkende konstellationer af relaterede emner ved hjælp af maskinlæring og præsentere dem for dig på en organiseret måde. Et kommende redesign til Google -søgning begynder at vise “Ting at vide” -bokse, der sender dig til forskellige underemner. Når der er et afsnit af en video, der er relevant for det generelle emne – selv når videoen som helhed ikke er det – sender den dig derhen. Shoppingresultater begynder at vise beholdning tilgængelig i butikker i nærheden og endda tøj i forskellige stilarter, der er knyttet til din søgning.
For din del tilbyder Google – selvom “spørge” måske er et bedre udtryk – nye måder at søge på, der går ud over tekstfeltet. Det gør et aggressivt skub for at få sin billedgenkendelsessoftware Google Lens flere steder. Det vil blive indbygget i Google -appen på iOS og også Chrome -webbrowseren på desktops. Og med MUM håber Google at få brugerne til at gøre mere end bare at identificere blomster eller vartegn, men i stedet bruge Lens direkte til at stille spørgsmål og shoppe.
“Det er en cyklus, som jeg tror vil blive ved med at eskalere,” siger Raghavan. “Mere teknologi fører til mere brugervenlighed, fører til bedre ekspressionsevne for brugeren og vil kræve flere af os, teknisk.”

Disse to sider af søgelegningen er beregnet til at starte den næste fase af Google -søgning, hvor maskinens maskinlæringsalgoritmer bliver mere fremtrædende i processen ved at organisere og præsentere information direkte. I dette vil Googles indsats blive enormt hjulpet af de seneste fremskridt inden for AI -sprogbehandling. Takket være systemer kendt som store sprogmodeller (MUM er en af disse), er maskinlæring blevet meget bedre til at kortlægge forbindelserne mellem ord og emner. Det er disse færdigheder, virksomheden udnytter til at gøre søgning ikke bare mere præcis, men mere undersøgende og, håber den, mere nyttig.
Et af Googles eksempler er lærerigt. Du har måske ikke den første idé om, hvad dele af din cykel hedder, men hvis noget er gået i stykker, skal du finde ud af det. Google Lens kan visuelt identificere gearskifteren (den gearskiftende del, der hænger i nærheden af baghjulet), og i stedet for bare at give dig det diskrete stykke information, giver det dig mulighed for at stille spørgsmål om at rette den ting direkte og tage dig til oplysningerne ( i dette tilfælde den fremragende Berm Peak Youtube -kanal).
Multimodal søgning kræver helt nyt input fra brugere
Skubbet for at få flere brugere til at åbne Google Lens oftere er fascinerende i sig selv, men det større billede (så at sige) handler om Googles forsøg på at samle mere kontekst om dine forespørgsler. Mere komplicerede multimodale søgninger, der kombinerer tekst og billeder, kræver “et helt andet niveau af kontekstualisering, som vi udbyderen skal have, og det hjælper os enormt med at have så meget kontekst som vi kan,” siger Raghavan.
Vi er meget langt fra de såkaldte “ti blå links” i søgeresultater, som Google leverer. Det har vist informationsbokse, billedresultater og direkte svar i lang tid nu. Dagens meddelelser er endnu et trin, hvor de oplysninger, Google giver, ikke kun er en rangering af relevant information, men en destillation af, hvad dens maskiner forstår ved at skrabe internettet.
I nogle tilfælde – som ved shopping – betyder den destillation, at du sandsynligvis sender Google flere sidevisninger. Som med Lens er denne trend vigtig at holde øje med: Google -søgninger skubber dig i stigende grad til Googles egne produkter. Men der er også en større fare her. Det faktum, at Google fortæller dig flere ting direkte, øger den byrde, den altid har haft: at tale med mindre bias.
Med det mener jeg bias i to forskellige sanser. Den første er teknisk: De maskinlæringsmodeller, som Google ønsker at bruge til at forbedre søgningen, har veldokumenterede problemer med racemæssige og kønsmæssige fordomme. De trænes ved at læse store dele af nettet og har derfor en tendens til at opfange grimme måder at tale på. Googles problemer med sit AI -etiske team er også veldokumenteret på dette tidspunkt – det fyrede to ledende forskere, efter at de havde offentliggjort et papir om netop dette emne. Da Googles søgeordfører, Pandu Nayak, fortalte The Verge's James Vincent i sin artikel om dagens MUM -meddelelser, ved Google, at alle sprogmodeller har skævheder, men virksomheden mener, at det kan undgå at “lægge det ud for folk at forbruge direkte.” < /p>

Uanset hvad det er (og for at være klar, så må det ikke være det), det undgår et andet konsekvensspørgsmål og en anden form for skævhed. Når Google begynder at fortælle dig mere om sine egne synteser af oplysninger direkte, hvad er det synspunkt, hvorfra det taler? Som journalister taler vi ofte om, hvordan det såkaldte “view from nowhere” er en utilstrækkelig måde at præsentere vores rapportering på. Hvad er Googles synspunkt? Dette er et problem, virksomheden tidligere har konfronteret, undertiden kendt som “et sandt svar” -problemet. Når Google forsøger at give folk korte, endegyldige svar ved hjælp af automatiserede systemer, ender det ofte med at sprede dårlige oplysninger.
Præsenteret med dette spørgsmål, svarer Raghavan ved at pege på kompleksiteten af moderne sprogmodeller. »Næsten alle sprogmodeller, hvis man ser på dem, er indlejringer i et rum med høj dimension. Der er visse dele af disse rum, der har tendens til at være mere autoritative, visse dele, der er mindre autoritative. Vi kan mekanisk vurdere disse ting ret let, ”forklarer han. Raghavan siger, at udfordringen så er, hvordan man præsenterer noget af denne kompleksitet for brugeren uden at overvælde dem.
Kan Google forblive neutral, hvis det leverer svar til brugerne direkte?
Men jeg får fornemmelsen af, at det virkelige svar er, at i det mindste i øjeblikket gør Google, hvad det kan for at undgå at stille spørgsmålet om søgemaskinens synspunkt ved at undgå de domæner, hvor det kunne blive anklaget for, som Raghavan udtrykker det , “Overdreven redaktionering.” Når de taler til Google-chefer om disse problemer med bias og tillid, fokuserer de på lettere at definere dele af disse højdimensionerede rum som “autoritet”.
For eksempel vises Googles nye “Ting at vide” -bokse ikke, når nogen søger efter ting, Google har identificeret som “særligt skadelige/følsomme”, selvom en talsmand siger, at Google ikke “tillader eller afviser bestemte kuraterede kategorier, men vores systemer er i stand til skalerbart at forstå emner, som denne type funktioner bør eller ikke bør udløse. ”
Google -søgning, dens input, output, algoritmer og sprogmodeller er alle blevet næsten ufatteligt komplekse. Når Google fortæller os, at det er i stand til at forstå indholdet af videoer nu, tager vi for givet, at det har computerkoteletterne til at trække det af – men virkeligheden er, at selv bare indeksering af et så massivt korpus er en monumental opgave, der dværger oprindelige mission med at indeksere det tidlige web. (Google indekserer kun lydudskrifter af et undersæt af YouTube, for ordens skyld, selvom det med MUM sigter mod at lave visuel indeksering og andre videoplatforme i fremtiden).
Ofte, når du taler med computerforskere, vil det rejsende sælgerproblem dukke op. Det er en berømt gåde, hvor du forsøger at beregne den kortest mulige rute mellem et givet antal byer, men det er også en rig metafor til at tænke igennem, hvordan computere gør deres bearbejdninger.
“Hvis du gav mig alle maskinerne i verden, kunne jeg løse ret store tilfælde,” siger Raghavan. Men til søgning siger han, at det er uløst og måske uløst ved bare at kaste flere computere efter det. I stedet skal Google komme med nye tilgange, som MUM, der drager bedre fordel af de ressourcer, Google realistisk kan skabe. “Hvis du gav mig alle de maskiner, der var, er jeg stadig afgrænset af menneskelig nysgerrighed og erkendelse.”
Googles nye måder at forstå information på er imponerende, men udfordringen er, hvad den vil gøre med oplysningerne, og hvordan den vil præsentere den. Det sjove ved det rejsende sælgers problem er, at ingen ser ud til at stoppe op og spørge, hvad der egentlig er i sagen, hvad viser han alle sine kunder, når han går dør til dør?