Deepfakes är inte ett stort problem på Facebook just nu, men företaget fortsätter att finansiera forskning om tekniken för att skydda mot framtida hot. Dess senaste arbete är ett samarbete med akademiker från Michigan State University (MSU), med det kombinerade teamet som skapar en metod för att omvandla djupfals: analysera AI-genererade bilder för att avslöja identifierande egenskaper hos maskininlärningsmodellen som skapade den.
Arbetet är användbart eftersom det kan hjälpa Facebook att spåra dåliga skådespelare som sprider djupfakes på sina olika sociala nätverk. Detta innehåll kan innehålla felinformation men också icke-samtyckepornografi – en deprimerande vanlig tillämpning av djupfake-teknik. Just nu är arbetet fortfarande i forskningsfasen och är inte redo att distribueras.
Metoden kan hjälpa till att spåra de som sprider djupa förfalskningar online
Tidigare studier inom detta område har kunnat avgöra vilken känd AI-modell som genererade en djupfake, men detta arbete, ledt av MSU: s Vishal Asnani, går ett steg längre genom att identifiera de arkitektoniska egenskaperna hos okända modeller. Dessa egenskaper, så kallade hyperparametrar, måste ställas in i varje maskininlärningsmodell som delar i en motor. Sammantaget lämnar de ett unikt fingeravtryck på den färdiga bilden som sedan kan användas för att identifiera källan.
Att identifiera egenskaperna hos okända modeller är viktigt, säger Facebook-forskningschef Tal Hassner till The Verge eftersom deepfake-programvara är extremt lätt att anpassa. Detta gör det möjligt för dåliga skådespelare att täcka sina spår om utredare försökte spåra deras aktivitet.
Exempel på deepfakes inkluderar dessa falska ansikten, genererade av en välkänd AI-modell som heter StyleGAN. Bild: Randen “Låt oss anta att en dålig skådespelare genererar massor av olika deepfakes och laddar upp dem på olika plattformar till olika användare”, säger Hassner. ”Om det här är en ny AI-modell som ingen har sett tidigare, så har vi väldigt lite sagt om det tidigare. Nu kan vi säga, 'Se, bilden som laddades upp här, bilden som laddades upp där, alla kom från samma modell.' Och om vi kunde ta tag i den bärbara datorn eller datorn [brukade generera innehållet] kommer vi att kunna säga 'Detta är den skyldige'.
Hassner jämför arbetet med rättsmedicinska tekniker som används för att identifiera vilken kameramodell som användes för att ta en bild genom att leta efter mönster i den resulterande bilden. “Inte alla kan dock skapa sin egen kamera,” säger han. “Medan vem som helst med rimlig erfarenhet och standarddator kan laga sin egen modell som genererar djupa förfalskningar.”
Den resulterande algoritmen kan inte bara fingeravtrycka egenskaperna hos en generativ modell, men den kan också identifiera vilken känd modell som skapade en bild och om en bild i första hand är en djupfake. “På standardriktmärken får vi toppmoderna resultat”, säger Hassner.
Deepfake-upptäckt är fortfarande ett “olöst problem”
Men det är viktigt att notera att även dessa toppmoderna resultat är långt ifrån tillförlitliga. När Facebook höll en deepfake-upptäcktstävling förra året kunde den vinnande algoritmen bara upptäcka AI-manipulerade videor 65,18 procent av tiden. Inblandade forskare sa att att upptäcka djupa förfalskningar med algoritmer fortfarande är ett ”olöst problem”.
En del av anledningen till detta är att området generativ AI är extremt aktivt. Nya tekniker publiceras varje dag och det är nästan omöjligt för något filter att följa med.
De som är inblandade i området är mycket medvetna om denna dynamik, och när han tillfrågas om publicering av denna nya fingeravtrycksalgoritm kommer att leda till forskning som inte kan upptäckas av dessa metoder, instämmer Hassner. “Jag förväntar mig det”, säger han. “Det här är ett katt- och musspel, och det fortsätter att vara ett katt- och musspel.”