Skrevet av Mary Branscombe, frilansblogger
Mary Branscombe Frilansblogger
Mary Branscombe er en frilansteknologisk journalist. Mary har vært en teknologiskribent i nesten to tiår, og dekket alt fra tidlige versjoner av Windows og Office til de første smarttelefonene, ankomsten av nettet og det meste i mellom.
Full bio Publisert med 500 ord inn i fremtiden 10. januar 2022 | Emne: Kunstig intelligens Personvernparadokset: Hvordan kan bedrifter bruke personopplysninger samtidig som de beskytter brukernes personvern? Se nå
Helt siden digitale kameraer og smarttelefoner kom, har vi tatt flere bilder enn vi enkelt kan håndtere, men ofte har vi fortsatt ikke bilder av øyeblikk vi ønsker å huske, enten fordi vi er opptatt med å nyte dem – eller fordi noen folk har en tendens til å ta bildene i stedet for å være på dem. Det er det lifecams lover å ta vare på.
Poenget med å ha et kamera som tar bilder for deg er ikke å erstatte den typen nøye komponerte bilder der du tenker godt over bildet du vil ta. Det handler mer om å fange øyeblikk av livet ditt og la deg være fri til å nyte dem uten å tenke på å trekke ut kameraet. Hvis du vil dokumentere livet ditt i detalj for å hjelpe deg med å huske det i fremtiden (kanskje når hukommelsen din ikke er så god som den en gang var), eller hvis du alltid er personen som tar bildene og aldri personen som får bildet er tatt, kan ideen virke tiltalende.
Det er potensielle personvernproblemer ved å ha en alltid-på-enhet som knipser av uten forvarsel, samt etikettespørsmålene rundt om du advarer besøkende og gir dem muligheten til å ikke være på et oppriktig kamera. Dette ligner mye på problemene med smarte briller forkledd som vanlige solbriller, som får mange til å føle seg ukomfortable – og de mange bildene og videoene fra for eksempel «ost-og-vin»-fester som vi alle har studert de siste ukene understreke årsakene til at det ikke alltid er bra å ta bilder automatisk når noen gjør noe interessant.
SE: Nettsikkerhetstreningen din trenger forbedring fordi hackingangrep bare blir verre
Og hva med å hente et bilde du ikke visste at du hadde fordi du ikke tok det? Vil alle vennene dine (og dataregulatorer rundt om i verden) være komfortable med ikke bare ansiktsgjenkjenning, men den andre datautvinningen du må gjøre for å kunne ta opp et bilde av tante Beryl som sitter ved kjøkkenbordet ditt en sommerettermiddag noen gang i løpet av de siste 10 årene?
Vil du at kameraet skal vite om været utenfor med en feed fra din smarte værstasjon, kunne snuse hvilke telefoner som er koblet til hjemmets Wi-Fi eller prøve luften på kjøkkenet (fordi lukt er en av de mest stemningsfulle sanser, husker du kanskje at du bakte småkaker lettere enn hvilket år det var)? Hva med å spore opp noen du ikke husker navnet på?
Spørsmålet om hva som gjør et interessant bilde er også litt nervepirrende, for for å være nyttige, trenger disse livskameraene programvare som er god nok til å plukke ut verdifulle bilder fra hundrevis av dude snaps av folk som snur seg bort, blunker eller bare sitter der. Tenk på å aldri være sikker på om du ikke kan finne et bilde av en minneverdig dag fordi du ikke har de riktige søkeordene eller fordi AI ikke oppdaget noe som er verdt å ta et bilde av.
Den tekniske termen for “interessant” er fremtredende karakter, og fremtredende algoritmer har skjevheter som vi bare så vidt har begynt å se på. Når du ser på et bilde, ser du ikke på hele bildet på en gang: øyet ditt går til det hjernen din ser på som mest interessant. Google bruker det som grunnlag for sitt nye bildeformat, der den delen av bildet som en maskinlæringsmodell forutsier er mest interessant nedlasting først: blomsten i stedet for bladene rundt den, øynene og munnen i stedet for veggen bak noens head.
Googles maskinlæringsmodeller lærer hva vi ser på i bilder, men det blikket kan ha skjevhet.
Fremtredende modeller som bestemmer hvilken del av bildet som skal lastes ned først, eller hvordan man automatisk beskjærer et bilde uten å miste visuell innvirkning – eller hvilke bilder som skal tas i utgangspunktet – retter blikket ditt og reagerer på det folk ser på først. Som mange av oss har lagt merke til fra endeløse videomøter de siste 18 månedene, har vi en tendens til å se på andres ansikter først, men hvis du ser et bilde av noen som ser på noe, vil du se på hva de ser på.
Og i likhet med mange maskinlæringsmodeller som er trent ved å bare se på hva folk sier og gjør, koder fremtredende modeller all skjevheten til disse menneskene, brukt automatisk, i stor skala. Da Twitter inviterte forskere til å se om det var en skjevhet i dens fremtredende bildebeskjæringsalgoritme, fant den så mange problemer at – i stedet for å prøve å redesigne algoritmen – er det bare å bli kvitt automatisk beskjæring. Forskningen som vant insektspremien viser at algoritmen mener at unge, tynne, pene, hvite, kvinnelige ansikter betyr mest. Gjør noens hud lysere og glattere, få ansiktet deres til å se slankere ut, yngre, mer stereotypt feminint og generelt mer konvensjonelt attraktivt, og algoritmen vil beskjære bildet for å fremheve dem. Den har en tendens til å kutte ut personer med hvitt hår, så vel som personer i rullestol.
Det betyr at hvis vi bruker smartkameraer til å ta bilder av det som betyr noe i livene våre, må vi sørge for at den er ikke opplært til å ignorere besteforeldre, venner i rullestol eller noe annet som ikke stemmer overens med hvem og hva vi ved et uhell har lært det å se på og verdsette fordi vi kanskje ikke skjønner det før vi ser gjennom disse bildene, månedene eller årene – eller tiår – senere.
Kunstig intelligens
Innovasjon: Analytics og AI i COVID-epoken American Airlines har en spesiell måte å håndtere sinte kunder på. Eliminere AI-bias er alles jobb Hva er AI? Alt du trenger å vite om kunstig intelligens digital transformasjon | CXO | Internet of Things | Innovasjon | Enterprise Software | Smarte byer