Utviklingen i kunstig intelligens beveger seg i et forbløffende tempo — så mye at det er vanskelig å holde oversikt. Men ett område hvor fremgangen er like vanlig som nesen på din AI-generert ansikt er bruk av nevrale nettverk for å skape falske bilder. I korte trekk: vi er blitt skremmende gode til det.
I bildet over kan du se hva som fire år med fremgang i AI bilde generasjon ser ut som. Den rå svart-og-hvit ansikter på venstre er fra 2014, publisert som en del av et landemerke papir som introduserte AI verktøy kalt generativ alternative nettverk (GAN). Fargen ansikter på høyre kommer fra en artikkel publisert tidligere denne måneden, som bruker de samme grunnleggende metoden, men er helt klart en verden fra hverandre når det gjelder bildekvalitet.
Disse realistiske ansikter er arbeidet med forskere fra Nvidia. I sine papir, felles offentlig forrige uke, de beskriver å endre de grunnleggende GAN arkitektur for å skape disse bildene. Ta en titt på bildene nedenfor. Hvis du ikke visste at de var falske, kan du fortelle forskjellen?
Noen av Nvidias AI-generert ansikter.
Bilde: Karras, Laine, Aila
Det som er spesielt interessant er at disse falske ansikter kan også lett tilpasses. Nvidia ‘ s ingeniører innarbeidet en metode kjent som stil overføring til deres arbeid, der egenskapene til ett bilde er blandet med en annen. Du kan kjenne igjen begrepet fra ulike image filtre som er populære på apper som Prisma og Facebook i de siste årene, noe som kan gjøre din selfies ser ut som et impresjonistisk maleri eller en kubistiske verk.
Søker stil overføring til ansikt generasjon tillatt Nvidia ‘ s forskere til å tilpasse ansikter til en imponerende grad. I rutenettet nedenfor, kan du se dette i aksjon. En kilde bilde av en ekte person (øverste rad) har ansiktskjennetegn av en annen person (høyre kolonne) pålagt på det. Egenskaper som hud og hår farge er blandet sammen, slik at det ser ut som å være en helt ny person i prosessen.
Stil transfer lar deg blanding ansiktskjennetegn fra ulike personer.
Bilde: Karras, Laine, Aila
Selvfølgelig, evnen til å skape realistiske AI ansikter øker problematisk spørsmål. (Ikke minst av alle, hvor lenge til stock photo modeller gå ut av arbeidet?) Eksperter har vært å heve alarmen for de siste par årene om hvordan AI-fakery kunne påvirke samfunnet. Disse verktøyene kan brukes for feilinformasjon og propaganda, og kan erodere offentlig tillit i billedlig bevis, en trend som kan skade det juridiske systemet, så vel som i politikken. (Dessverre, disse problemene ikke diskuteres i Nvidias papir, og når vi nådde ut til selskapet, det sa det kunne ikke snakke om arbeidet inntil det hadde vært riktig peer-reviewed.)
Disse advarslene ikke bør ignoreres. Som vi har sett med bruk av deepfakes for å opprette ikke-samtykkende pornografi, det er alltid folk som er villige til å bruke disse verktøyene på tvilsomme måter. Men på samme tid, på tross av hva doomsayers si, den informasjonen apocalypse er ikke ganske nær. For en, evne til å generere ansikter har fått spesiell oppmerksomhet i AI samfunnet, og du kan ikke legen som helst bilde på noen måte du liker med samme kvalitet. Det er også alvorlige begrensninger når det kommer til kompetanse og tid. Det tok Nvidia ‘ s forskere en uke trening sin modell på åtte Tesla Gpu-er i stand til å lage disse overflatene.
Det er også holdepunkter vi kan se etter for å oppdage forfalskninger. I et senere blogginnlegg, artist og koder Kyle McDonald ‘ listet opp en rekke forteller. Håret, for eksempel, er svært vanskelig å forfalske. Det ser ofte ut for vanlig, som det er blitt malt på med en pensel, eller for uklare, og blander seg inn i noens ansikt. På samme måte, AI generatorer ikke helt forstå menneskelig ansikts symmetri. De ofte sted ørene på ulike nivåer eller gjøre øynene forskjellige farger. De er heller ikke veldig god på å generere tekst eller tall, som bare kommer ut som uleselig blobs.
Noen eksempler på AI-generert ansikter med tydelig asymmetrisk funksjoner.
Bilde av Kyle McDonald’
Hvis du leser begynnelsen av dette innlegget, men disse tipsene vil sannsynligvis ikke være en stor trøst. Tross alt, Nvidia ‘ s arbeid viser bare hvor fort AI i dette domenet er i gang, og det vil ikke være lenge før forskerne lage algoritmer som kan unngå disse forteller.
Heldigvis, eksperter er allerede å tenke på nye måter å autentisere digitale bilder. Noen løsninger har allerede blitt lansert, som kamera-apper som stempel bilder med geocodes å kontrollere når og hvor de ble tatt, for eksempel. Klart, det kommer til å bli en kjører kampen mellom AI-fakery og bilde godkjenning for flere tiår framover. Og i øyeblikket er AI lading avgjørende i ledelsen.