Facebook offre 10 milioni di dollari in borse di ricerca per l’tech per rilevare deepfake video
Facebook creerà la sua deepfake video per aiutare a costruire un sistema in grado di rilevarli.
Mentre il 2020 elezioni presidenziali americane hanno legislatori sul bordo oltre AI generato video falso, un nuovo studio con sede in Olanda, deepfake-rilevamento vestito Deeptrace mostra che le principali vittime di oggi sono le donne.
Reddit, il sito in cui il termine deepfake è stato coniato, nei primi mesi del 2018 vietato deepfake porno o involontario porno’, che in gran parte si basa su generativa contraddittorio reti (GANs) per inserire il volto di una donna in una infrastruttura di materiale pornografico.
Nonostante Reddit influenza sulla cultura di internet, il divieto non ha impedito l’emergere di deepfake porno. Nuove app, come DeepNude – una app che rapidamente si spogliò di una donna in un’immagine – hanno dato spuntato techies esperimento con GANs. Il problema è che l’app può essere utilizzata per molestare e intimidire le donne.
Anche se non c’è l’evidente minaccia che deepfakes posa in processi democratici, la tecnologia viene applicata in modi inaspettati, come il CEO di frode tramite sintesi vocale – un estremamente costosi tipo di frode che ha sempre giocato su e-mail.
Secondo Deeptrace, deepfake video sono esplose nel passato anno, passando da 8.000 a dicembre 2018 per 14,678 oggi. E non sorprende che per internet, quasi tutto il materiale è pornografia, che rappresenta il 96% del deepfake video è trovato on-line. Il falso video sono stati visualizzati 134 milioni di volte.
I numeri suggeriscono deepfake porno è ancora di nicchia, ma in crescita anche in fretta. Inoltre, il 90% di falsi contenuti raffigurato donne provenienti da stati UNITI, regno UNITO e Canada, mentre il 2% era rappresentato da donne provenienti da Corea del Sud e il 2% rappresentato da donne provenienti da Taiwan.
“Deepfake la pornografia è un fenomeno che si rivolge esclusivamente e danneggia le donne”, l’azienda nota.
Che piccolo numero di non-pornografico deepfake video analizzato su YouTube per lo più contenute (61%) sintetizzato soggetti di sesso maschile.
Secondo Henry Ajder, ricercatore presso Deeptrace, attualmente la maggior parte delle deepfake porno coinvolge donne famose. Ma egli riconosce che la minaccia per tutte le donne è probabilmente ad aumentare, come si diventa computazionalmente meno costoso per creare deepfakes.
“Come generativo tecnologie a supporto della deepfakes diventare sempre più mercificato, è molto probabile più privati saranno mirati,” Ajder detto a ZDNet.
“Questo processo di mercificazione renderà la tecnologia significativamente più accessibile ai cattivi attori e quasi certamente aumentare la quantità di deepfakes fase di produzione”.
Come per la politica, minaccia, in realtà ci non sono molti i casi in cui deepfakes hanno cambiato un risultato politico.
Le uniche due citati nel report è successo in Gabon e in Malesia. Il caso in Malesia generato un video del sesso che coinvolgono un ministro del governo, mentre l’incidente che colpisce il Gabon ha coinvolto un video rilasciato dal governo del presidente Ali Bongo Ondimba dopo aver subito un ictus.
Ajder pensa che la politica minaccia è attualmente nel “prossimo futuro”, ma sostiene che l’idea di un deepfake è già destabilizzante processi politici.
“Direi deepfakes, la sicurezza informatica, politica e applicazioni porre gravi a breve termine i rischi di cui abbiamo bisogno per preparare per ora, anche se non causando pronunciare il caos proprio ora il modo in cui alcune persone possono pensare,” ha detto.
Di più su deepfakes e di sicurezza
Google di guerra di deepfakes: Come elezione telai, condivide tonnellata di AI-finto video
Facebook, Microsoft: ti pagano $10 per il tech a posto deepfake videoDimenticate e-mail: i Truffatori usano il CEO voce ‘deepfakes’ con i lavoratori in cablaggio di cassa‘Deepfake’ app Zao scintille principali preoccupazioni in materia di privacy in CinaAI, quantum computing e 5G potrebbe fare i criminali più pericolosi che mai, avvertire la poliziaSamsung utilizza IA di trasformare le foto in testa parlante videoFacebook fact-checkers treno AI rileva la profonda falso” videoIl pericolo in agguato di deepfakes TechRepublicQuesti deepfakes di Bill Hader sono assolutamente terrificante CNET
Argomenti Correlati:
Governo – NOI
La Trasformazione Digitale
CXO
Internet delle Cose
L’innovazione
Enterprise Software