Utvecklingen inom artificiell intelligens flytta på en häpnadsväckande takt — så mycket så att det är ofta svårt att hålla koll. Men ett område där utvecklingen är som vanligt lika näsan på din AI-genererade ansikte är användning av neurala nätverk för att skapa falska bilder. I korthet: vi får oroväckande bra på det.
I bilden ovan kan du se vad fyra år av framsteg i AI bild generation ser ut. Den råa svart-och-vita ansikten på vänster är från och med 2014, som publiceras som en del av ett landmärke papper som infördes AI verktyg som kallas skapande kontradiktoriska nätverk (GAN). Färg ansikten på höger kommer från en rapport som publicerades tidigare denna månad, som använder samma grundläggande metod, men är helt klart en värld för sig när det gäller bildkvalitet.
Dessa realistiska ansikten är det arbete som utförts av forskare från Nvidia. I sin uppsats, delat offentligt förra veckan, de beskriver att ändra den grundläggande GAN arkitektur för att skapa dessa bilder. Ta en titt på bilderna nedan. Om du visste inte att de var falska, kan du berätta det för skillnad?
Några av Nvidias AI-genererade ansikten.
Bild: Karras, Laine, Aila
Vad som är särskilt intressant är att dessa falska ansikten kan även lätt anpassas. Nvidia: s ingenjörer ingår en metod som kallas stil överföring till sitt arbete, där egenskaper hos en bild är blandad med annat. Du kanske känner igen begreppet från olika bild-filter som är populära på apps som Prisma och Facebook under de senaste åren, vilket kan göra din selfies ser ut som en impressionistisk målning eller en kubistiska verk av konst.
Tillämpa stil överföring för att möta generation tillåtna Nvidia: s forskare att anpassa ansikten till en imponerande grad. I rutnätet nedan, kan du se i aktion. En källa bild av en verklig person (översta raden) har facial egenskaper hos en annan person (högra kolumnen) som ålagts på den. Egenskaper som hud-och hårfärg blandas ihop, att skapa vad som ser ut att vara en helt ny person i processen.
Stil överföring gör att du kan blanda facial egenskaper från olika människor.
Bild: Karras, Laine, Aila
Naturligtvis möjligheten att skapa en realistisk AI ansikten väcker oroande frågor. (Inte minst av allt, hur länge förrän stock photo modeller gå ut i arbete?) Experter har larm under de senaste åren om hur AI fakery kan påverka samhället. Dessa verktyg kan användas för desinformation och propaganda och kan urholka allmänhetens förtroende i bild bevis, en trend som kan skada rättsväsendet liksom politik. (Tyvärr är dessa frågor inte diskuteras i Nvidia: s papper, och när vi kom ut till företaget, man sa att man inte kunde tala om arbetet så att det hade varit korrekt-peer-reviewed.)
Dessa varningar bör inte ignoreras. Som vi har sett med användning av deepfakes att skapa icke-samtyckande pornografi, det finns alltid folk som är villiga att använda dessa verktyg på ett tvivelaktigt sätt. Men samtidigt, trots vad doomsayers säga, information apokalyps är inte riktigt nära. För en, förmåga att generera ansikten har fått särskild uppmärksamhet i AI gemenskapen, du kan inte läkaren någon bild som på något sätt du vill med samma trohet. Det finns också allvarliga begränsningar när det gäller kompetens och tid. Det tog Nvidia: s forskare veckan utbildning för sin modell på åtta Tesla Gpu att skapa dessa ytor.
Det finns också ledtrådar vi kan titta efter för att upptäcka förfalskningar. I ett senare blogginlägg, konstnär och coder Kyle McDonald ‘ listat ett antal berättar. Hår, till exempel, är mycket svårt att fejka. Det ser ofta alltför vanliga, som det varit målat med en pensel, eller alltför suddiga, som smälter in i någons ansikte. På samma sätt, AI generatorer förstår inte riktigt mänskliga ansiktets symmetri. De lägger ofta öron på olika nivåer eller göra ögon i olika färger. De är inte heller särskilt bra på att generera text eller siffror, som precis kommit ut som oläsliga blobbar.
Några exempel på AI-genererade ansikten med uppenbara asymmetrisk funktioner.
Bilden av Kyle McDonald’
Om du läser den i början av detta inlägg, men, dessa tips är förmodligen inte en stor tröst. Efter alla, Nvidia: s arbete visar bara hur snabbt AI på detta område går framåt, och det dröjer inte länge förrän forskarna att skapa algoritmer som kan undvika dessa berättar.
Tack och lov, experter funderar redan på nya sätt för att verifiera digitala bilder. Vissa lösningar har redan lanserats, som kamera-appar som stämpel bilder med geokoder kontrollera när och var de togs, till exempel. Klart, det kommer att vara en pågående striden mellan AI fakery och bild autentisering för årtionden framöver. Och just nu, AI laddas resolut till ledningen.