All’inizio di questo mese si può avere visto un sito che si chiama ThisPersonDoesNotExist.com facendo il giro, che utilizza AI a generare incredibilmente realistiche falso facce. Bene, ecco il sequel: WhichFaceIsReal.com, che permette di testare la vostra capacità di distinguere AI generato falsi dall’articolo originale. Basta andare al sito e fare clic su che si pensa è la persona reale!
WhichFaceIsReal.com ha anche uno scopo più alto. Fu fondato da due scienziati dell’Università di Washington, Jevin Ovest e Carl Bergstrom, entrambi i quali studio di come l’informazione si diffonde attraverso la società. Essi pensano che l’aumento di AI-generato falsi potrebbero essere dei problemi, di minare la fiducia della società in evidenza, e vuole educare le masse.
“Quando una nuova tecnologia come questo, il più pericoloso è il periodo quando la tecnologia è là fuori, ma il pubblico non è a conoscenza di esso,” Bergstrom dice Il Ciglio della strada. “Quando può essere utilizzato nel modo più efficace.”
“Quello che stiamo cercando di fare è educare il pubblico, rendere le persone consapevoli del fatto che questa tecnologia è là fuori”, dice a Ovest. “Proprio come, eventualmente, la maggior parte delle persone erano a conoscenza del fatto che è possibile Photoshop un’immagine.”
Falso facce generato da ThisPersonDoesNotExist.com.
Entrambi i siti utilizzano una macchina di apprendimento metodo noto come un generativa del contraddittorio di rete (o GAN, in breve) per generare i loro falsi. Queste reti operano da condividere attraverso enormi pile di dati (in questo caso, un sacco di ritratti di persone reali); l’apprendimento di modelli all’interno di essi, e poi cercando di replicare quello che ho visto.
Il motivo GANs sono così buone che si prova se stessi. Una parte della rete genera volti, e gli altri li confronta con i dati di training. Se si può dire la differenza, il generatore viene inviato di nuovo al tavolo da disegno per migliorare il proprio lavoro. Pensate a come un severo insegnante di arte che non permette di lasciare la classe fino a quando si disegna il numero giusto di occhi sul ritratto a carboncino. Non c’è spazio per IA Picasso — realismo.
“il più pericoloso periodo è quando la tecnologia è là fuori, ma il pubblico non è a conoscenza di esso.”
Queste tecniche possono essere utilizzate per manipolare l’audio e video così come le immagini. Anche se ci sono limiti a ciò che tali sistemi può fare (non è possibile digitare una didascalia per l’immagine che si desidera esistono e hanno magicked) stanno migliorando costantemente. Deepfakes può girare video di uomini politici in marionette e può anche trasformarsi in un grande ballerino.
Con questo caso di AI-generato facce, Bergstrom e Ovest di notare che l’uso malevolo potrebbe essere la diffusione di disinformazione dopo un attacco terroristico. Per esempio, AI potrebbero essere utilizzati per generare un falso colpevole che sono circolate online, la diffusione sui social network.
In questi casi i giornalisti di solito cerco di verificare l’origine di un’immagine, utilizzando strumenti come Google Reverse Image search. Ma questo non avrebbe funzionato su un AI falsi. “Se si voleva iniettare la disinformazione in una situazione del genere, se si posta una foto dell’autore e che qualcun altro lo avrai risolto molto rapidamente”, dice Bergstrom. “Ma se si utilizza una foto di qualcuno che non esiste? Pensate alla difficoltà di tracciamento che verso il basso.”
Si nota che gli accademici e i ricercatori stanno sviluppando un sacco di strumenti che può posto deepfakes. “La mia comprensione è che in questo momento è in realtà abbastanza facile da fare,” note in Occidente. E di fare il test di cui sopra probabilmente si è trovato è in grado di distinguere tra l’intelligenza artificiale generato volti e persone reali. Ci sono un certo numero di dice, tra asimmetrico facce, denti disallineati, realistico capelli e le orecchie, beh, basta non guardare come le orecchie.
Ma questi falsi andrà meglio. In un altro tre anni [falsi] saranno indistinguibili,” dice Occidente. E quando ciò accade, sapendo che sarà la metà della battaglia. Dice Bergstrom: “il Nostro messaggio è molto non è che la gente non deve credere in qualcosa. Il nostro messaggio è il contrario: è non essere ingenui.”