Facebook biedt $10 miljoen in onderzoek subsidies voor tech op te sporen deepfake video ‘ s
Facebook creëert zijn eigen deepfake video ‘ s te helpen met het bouwen van een systeem dat kan detecteren.
Terwijl de 2020 presidentsverkiezingen in de VS hebben de wetgevers aan de rand over AI-gegenereerde nep-video ‘ s, een nieuwe studie door in Nederland gevestigde deepfake-detectie outfit Deeptrace laat zien dat de belangrijkste slachtoffers van vandaag de dag zijn vrouwen.
Reddit, de site waar de term deepfake werd bedacht, in het begin 2018 verboden deepfake porno of ‘gedwongen ‘ porno’, dat grotendeels is gebaseerd op generatieve tegenspraak netwerken (GANs) tot het invoegen van het gezicht van een vrouw in bestaande pornografisch materiaal.
Ondanks Reddit invloed op de cultuur van internet het verbod is niet gestopt, de opkomst van deepfake porno. Nieuwe apps zoals DeepNude – een app die snel uitgekleed door een vrouw in een beeld – hebben sinds dook als techneuten experiment met de GANs. Het probleem is dat de apps kan worden gebruikt voor het lastigvallen en intimideren van vrouwen.
Hoewel er de voor de hand liggende bedreiging die deepfakes vormen voor de democratische processen, de techniek is ook toegepast op onverwachte manieren, zoals CEO-fraude met behulp van gesynthetiseerde stem is een zeer dure vorm van fraude die heeft gespeeld uit via e-mail.
Volgens Deeptrace, deepfake video ‘ s zijn ontploft in het afgelopen jaar, met een stijging van 8.000 in December 2018 te 14,678 vandaag. En niet verrassend is voor het internet, bijna al het materiaal is porno, dat verantwoordelijk is voor 96% van de deepfake video ‘ s online te vinden. De nep bekeken video ‘ s 134 miljoen keer.
De getallen suggereren deepfake porno is nog steeds een niche, maar ook snel groeit. Bovendien 90% van de nep-inhoud afgebeelde vrouwen van de VS, het verenigd koninkrijk en Canada, terwijl 2% vertegenwoordigd vrouwen uit Zuid-Korea en 2% afgebeelde vrouwen uit Taiwan.
“Deepfake pornografie is een fenomeen dat uitsluitend slachtoffers en schade vrouwen,” de vennootschap opmerkingen.
Dat kleine aantal niet-pornografische deepfake video ‘ s geanalyseerd op YouTube meestal opgenomen (61%) gesynthetiseerd mannelijke proefpersonen.
Volgens Henry Ajder, onderzoeker bij Deeptrace, momenteel zijn de meeste van de deepfake porno gaat beroemde vrouwen. Maar hij schat de bedreiging van de vrouwen zal naar verwachting toenemen als het wordt minder rekenkracht is duur om te maken deepfakes.
“Als de generatieve technologieën die deepfakes steeds meer gemeengoed, dan is het waarschijnlijk meer particulieren zullen worden gericht,” Ajder vertelde ZDNet.
“Deze commodificatie proces zal de technologie aanzienlijk meer toegankelijk te maken voor slechte acteurs en bijna zeker verhogen van de hoeveelheid deepfakes geproduceerd.”
Als voor de politieke dreiging, er is eigenlijk niet veel gevallen waarin deepfakes de gewijzigde politieke uitkomst.
De enige twee die in het rapport gebeurde in Gabon en Maleisië. Het geval in Maleisië gegenereerd een sex video waarin een minister, terwijl het incident van invloed Gabon betrokken een video vrijgegeven door de regering van president Ali Bongo Ondimba, nadat hij had geleden een beroerte.
Ajder denkt dat de politieke dreiging is momenteel in de “nabije toekomst”, maar benadrukt dat het idee van een deepfake is al destabiliserende politieke processen.
“Ik zou zeggen deepfakes, cybersecurity, en politieke toepassingen vormen zeer ernstige korte-termijn risico’ s die wij nodig hebben om zich voor te bereiden, zelfs als ze niet veroorzaakt uiterste verwoesting nu in de manier waarop sommige mensen denken misschien,” zei hij.
Meer op deepfakes en beveiliging
Google ‘s oorlog op deepfakes: Als de verkiezingen kijkt, het aandelen ton van AI-nep-video’ s
Facebook, Microsoft: We betalen $10m voor tech spot deepfake video ‘ sVergeten e-mail: Oplichters gebruiken CEO stem ‘deepfakes’ con werknemers in de bedrading cash‘Deepfake’ app Zao vonken grote van de persoonlijke levenssfeer in ChinaAI, quantum computing en 5G kon maken criminelen gevaarlijker dan ooit waarschuw de politieSamsung maakt gebruik van AI om foto ‘s veranderen in het hoofd van video’ sFacebook het fact-checkers trein AI op te sporen “diep nep” video ‘ sHet gevaar op de loer van deepfakes TechRepublicDeze deepfakes van Bill Hader zijn absoluut angstaanjagend CNET
Verwante Onderwerpen:
De overheid ONS
Digitale Transformatie
CXO
Het Internet van Dingen
Innovatie
Enterprise Software