Nul
Google er ved at tage en konservativ tilgang til køn-baseret pronominer i Smart Komponere, Gmail-funktion, der forudsiger, hvordan en person har til hensigt at fuldføre en sætning.
I stedet for at risikere at fornærme brugere af Smart Komponere at forudsige den forkerte kønnede pronomen, at Google har besluttet at blot at forhindre, at den algoritme fra at foreslå pronominer som “ham” og “hende”.
Gmail product manager, Paul Lambert, fortalte Reuters problemet blev identificeret i januar, når en virksomhed forsker har skrevet “jeg møde en investor i næste uge”.
Smart Komponere tilsyneladende foreslog, “har du lyst til at møde ham?”, en antagelse om, at der kunne være galt, vække anstød, og trække kritik, at Google ikke er administrerende bias i sine algoritmer.
Lambert sagde Googles ingeniører har prøvet flere løsninger til at holde kønnede pronomen forslag, men ingen af dem var bias-fri, så de besluttede at forbyde kønnede pronominer.
Politik påvirker færre end én procent Smart Komponere forslag. Smart Komponere bruges på 11 procent af Gmail.com beskeder over hele verden.
Google lancerede Smart Komponere i Maj, så politikken har været i sted hele tiden, funktionen har været offentligt tilgængelige. Men den sorte liste på kønnede pronominer er også blevet anvendt til svar i Google ‘ s Smart Svar.
Google ‘retfærdighed’ del af sine ansvarlige AI-praksis detaljer vanskeligheder med at skabe AI systemer, der er fair og inkluderende. Da machine-learning modeller lære fra eksisterende i den virkelige verden data, nøjagtige modeller kan lære og forstærke fordomme.
I tilfælde af Smart Komponere, dets sprog model har blevet uddannet på milliarder af sætninger og sætninger, som udføres over et menneske bias, at en investor ville være en mand.
Men problemet med bias kan være mere skadelige i andre sammenhænge end udfylde en e-mail, som i algoritmer, der anvendes i det strafferetlige system.
Microsoft-ejet LinkedIn er også sortlistet kønnede pronominer i sin Smarte Svar funktion.
Til at hjælpe andre med at undgå menneskelige bias i deres modeller, Google i sidste måned udgivet en uddannelse modul, der lærer, hvilke typer af menneskelige bias kan ende op i machine learning-modeller, samt spot områder fra menneskelige bias i data før uddanne en model.
Tidligere og relaterede dækning
Google Gmail-brugere: Her er hvordan du tænder for nye arbejder offline, Smart Komponere
Google ruller ud offline støtte i Gmail, og de nye Smart Komponere funktion, der afslutter dine sætninger.
Google tilføjer opret integrationer til at udløse handlinger i Gmail
Ved lanceringen, Komponere tiltag integreres med Dropbox, Atlassian, Max og Egnyte.
Gmail ‘ s nye design: Elsker det eller hader det, ligner det du vil snart nødt til at bruge det
Den nye Gmail vil bare være Gmail snart efter den når den generelle ledighed.
Gmail redesign: Google eftersyn G-Suite med flere AI, mindre rod
Googles G-Suite makeover er der sigter på at spare virksomheder, e-mail timer, åbner og tid brugt på meddelelser.
Hvordan du får mest ud af den nye Gmail
Google ‘ s Gmail større omskrivning introducerer mange nye, praktiske funktioner. Her er hvordan du bruger Gmail forbedringer, som er klar nu.
Gmail spam mysterium: Hvorfor har sikker konti i gang spamming sig selv?
Spam vises i brugeres mapper med sendte beskeder, selv fra konti, der ikke er blevet kompromitteret.
Duplex, Android S og Assistent: Alt vigtigt fra Google i/O CNET
Fra Gmail, der skriver sig til en Assistent, der kan bestå Turing-test, Google i/O bragt os et væld af ekstraudstyr til sine produkter, næsten alle på grund af sin AI og machine learning indsats.
Hvorfor G Suite admins skal aktivere Gmail ‘ s avancerede anti-phishing-og malware-indstillinger TechRepublic
Google har for nylig tilføjet nye G-Suite sikkerhed indstillinger for at give Gmail-brugere et ekstra lag af beskyttelse. Lær, hvordan til at advare brugerne af skadelige e-mails, eller blot sende dem direkte til spam med disse indstillinger.
Relaterede Emner:
Digital Transformation
CXO
Tingenes Internet
Innovation
Virksomhedens Software
0