I en personlig krise henvender mange mennesker sig til en upersonlig kilde til støtte: Google. Hver dag udfører virksomheden søgninger om emner som selvmord, seksuelle overgreb og misbrug i hjemmet. Men Google ønsker at gøre mere for at lede folk til den information, de har brug for, og siger, at nye AI-teknikker, der bedre analyserer sprogets kompleksitet, hjælper.
Specifikt integrerer Google sin seneste maskinlæringsmodel, MUM, i sin søgemaskine for “mere præcist at detektere en bredere vifte af personlige krisesøgninger.” Virksomheden afslørede MUM på sin IO-konference sidste år, og har siden brugt den til at udvide søgningen med funktioner, der forsøger at besvare spørgsmål forbundet med den oprindelige søgning.
I dette tilfælde vil MUM være i stand til at spotte søgeforespørgsler relateret til vanskelige personlige situationer, som tidligere søgeværktøjer ikke kunne, siger Anne Merritt, en Google-produktchef for sundhed og informationskvalitet.
“MUM er i stand til at hjælpe os med at forstå længere eller mere komplekse forespørgsler”
“MUM er i stand til at hjælpe os med at forstå længere eller mere komplekse forespørgsler som 'hvorfor angreb han mig, da jeg sagde, at jeg ikke elsker ham',” sagde Merrit til The Verge. “Det kan være indlysende for mennesker, at denne forespørgsel handler om vold i hjemmet, men lange, naturlige sprogforespørgsler som disse er svære for vores systemer at forstå uden avanceret AI.”
Andre eksempler på forespørgsler, som MUM kan reagere på, inkluderer “mest almindelige måder, hvorpå selvmord fuldføres” (en søgning Merrit siger, at tidligere systemer “måske tidligere har forstået som informationssøgning”) og “Sydney selvmord hot spots” (hvor, igen, tidligere svar ville har sandsynligvis returneret rejseinformation – ignorerer omtalen af ”selvmord” til fordel for den mere populære forespørgsel efter “hot spots”). Når Google opdager sådanne krisesøgninger, reagerer det med en informationsboks, der fortæller brugerne “Hjælp er tilgængelig”, normalt ledsaget af et telefonnummer eller en hjemmeside for en velgørenhedsorganisation for mental sundhed som samaritanere.
Ud over at bruge MUM til at reagere på personlige kriser, siger Google, at det også bruger en ældre AI-sprogmodel, BERT, til bedre at identificere søgninger, der leder efter eksplicit indhold som pornografi. Ved at udnytte BERT siger Google, at det har “reduceret uventede chokerende resultater med 30 %” år-til-år. Virksomheden var dog ikke i stand til at dele absolutte tal for, hvor mange “chokerende resultater” dets brugere støder på i gennemsnit, så selvom dette er en komparativ forbedring, giver det ingen indikation af, hvor stort eller lille problemet faktisk er.
Google er ivrig efter at fortælle dig, at AI hjælper virksomheden med at forbedre sine søgeprodukter – især på et tidspunkt, hvor der er en bygningsfortælling om, at “Google-søgning er ved at dø.” Men at integrere denne teknologi kommer også med sine ulemper.
Mange AI-eksperter advarer om, at Googles stigende brug af maskinlæringssprogmodeller kan skabe nye problemer for virksomheden, såsom at indføre skævheder og misinformation i søgeresultater. AI-systemer er også uigennemsigtige og giver ingeniører begrænset indsigt i, hvordan de kommer til bestemte konklusioner.
Da vi f.eks. spurgte Google, hvordan det på forhånd verificerer, hvilke søgetermer identificeret af MUM, der er forbundet med personlige kriser, var dets repræsentanter enten uvillige eller ude af stand til at svare. Virksomheden siger, at det strengt tester ændringer af sine søgeprodukter ved hjælp af menneskelige evaluatorer, men det er ikke det samme som at vide på forhånd, hvordan dit AI-system vil reagere på bestemte forespørgsler. For Google er sådanne afvejninger dog tilsyneladende det værd.