AMERIKANSKE politikere er stadig mer bekymret for deepfakes — en ny type AI-assistert video redigering som lager realistiske resultater med minimal innsats. I går, en trio av lovgivere sendt et brev til Direktør for National Intelligence, Dan Strøk, og be ham om å vurdere trusselen mot nasjonal sikkerhet av denne nye formen for fakery.
Brevet sier “hyper-realistiske digitale forfalskninger” viser “overbevisende framstilling av enkeltpersoner gjør eller sier ting de aldri gjorde det” kan bli brukt for utpressing og feilinformasjon. “Så dypt falske teknologien blir mer avansert og mer tilgjengelig, kan det utgjøre en trussel mot Usa i offentlig diskusjon og nasjonal sikkerhet,” sier brevet er undertegnet, Hus representanter Adam Schiff (D-CA), Stephanie Murphy (D-FL), og Carlos Curbelo (R-FLORIDA).
Deepfakes har potensial for utpressing, feilinformasjon, og mer
Trioen vil etterretningsmiljøet å produsere en rapport som inneholder beskrivelser av når “bekreftet eller mistenkt” deepfakes har blitt produsert av utenlandske personer (det er ingen aktuelle eksempler på dette), og å foreslå mulige løsninger.
I en pressemelding, Curbelo sa: “Dypt finter har potensial til å forstyrre alle deler av vårt samfunn, og utløse farlige internasjonale og nasjonale konsekvenser […] Som med noen trussel, vår Intelligens Samfunnet må være forberedt på å bekjempe dyp finter, være på vakt mot dem, og står klar til å beskytte vår nasjon og det Amerikanske folk.”
Dette er ikke første gang lovgivere har tatt opp dette problemet. Tidligere i år, senators Mark Warner (D-VA) og Marco Rubio (R-FLORIDA) advarte om at deepfakes bør anses som en nasjonal sikkerhetstrussel. I en tale, sa Rubio teknologien kunne supercharge feilinformasjon kampanjer-ledet av utenlandske krefter, man peker ut Russland som en særlig trussel.
“Jeg vet for et faktum at den russiske Føderasjonen på kommando av Vladimir Putin prøvde å så ustabilitet og kaos i Amerikansk politikk i 2016,” sa Rubio. “De gjorde det gjennom Twitter roboter og de gjorde det gjennom et par andre tiltak som i økende grad kommer til lys. Men de fikk ikke bruke denne. Tenk å bruke dette. Tenk deg å injisere dette i et valg.”
Deepfakes først kom til prominence i 2016 når brukere på Reddit i gang ved hjelp av cutting-edge-AI-forskning for å lime inn bilder av kjendiser på porno. Begrepet i seg selv ikke se noen særlig forskning, men er en portmanteau som kombinerer “dyp læring” med “finter.” Uttrykket ble først brukt av en Reddit-bruker, men er langsomt blitt synonymt med et bredt spekter av AI redigering teknologi. Slike verktøy kan slå folk til virtuelle dukkene, synkronisering av munnen med andres ytringer, eller bare gjør dem danse som en proff.
En rekke organisasjoner, som blant annet universitetet labs, startups, og selv deler av det militære, er å undersøke hvordan å pålitelig oppdage deepfakes. Dette omfatter metoder som spotting blinker uregelmessig mønster eller urealistisk hud tone.
Men forskere er enige om at det er ingen enkelt metode, og at uansett hva deepfake-spotting verktøy er opprettet vil snart bli lurt av nye versjoner av teknologien. I alle fall, selv om det var en enkel måte å få øye på deepfakes, det ville ikke nødvendigvis stoppe teknologien blir brukt skadelig. Vi vet at fra de spredning av falske nyheter på nettverk som Facebook. Selv om det kan være lett disproven, kan det likevel overbevise de som ønsker å tro.
Til tross for disse utfordringene, får den regjeringen som er involvert er oppmuntrende nyheter. “Dette er en konstruktiv trinn,” Stewart Baker, en tidligere general counsel for National Security Agency, fortalte Washington Post. “Det er én ting for akademikere og teknologikyndige å si at deepfakes er et problem, en annen for intelligens samfunnet til å si det samme. Det gjør noe bekymring for at Kongressen kan adresse, uten frykt for å bli nest gjettet på hvor stort problemet er.”