Facebook Oculus ricerca di artigianato strano miscuglio di John Oliver e Stephen Colbert

0
104

Zero

Un thread di recente intelligenza artificiale revival consiste nel creare falsi che aspetto e il suono in modo convincente reale, come riproduzioni di dipinti di noti artisti.

I ricercatori Facebook dell’Oculus laboratorio di ricerca e colleghi presso la Carnegie Mellon, hanno sviluppato reti neurali che creare falsi video che mostra come sarebbe se una persona ha parlato nel modo di un’altra persona, o il video di un giorno nuvoloso, in un luogo dove c’erano in realtà a cieli sereni in realtà.

Il prodotto di tutto questo, sono video che potrebbero essere inquietante o emozionante, a seconda del vostro punto di vista: il Comico John Oliver originale monologo può essere fatto per creare un nuovo, falso sequenza di video dal collega comico Stephen Colbert, traduzione di Oliver espressioni e i modi di fare sul somiglianza di Colbert.

Anche: Guardando i video di YouTube potrebbe un giorno far robot copia esseri umani

Il fenomeno, noto come “retargeting,” è stato esplorato per anni, soprattutto con le immagini fisse. La nuova ricerca promette di affinare visual falsi impiegando più di indizi forniti dal momento in cui i turni di fotogrammi di un video.

La carta, Recyle-GAN: senza sorveglianza Video di Retargeting, è pubblicato su arXiv pre-server di stampa è stato presentato al 15 ° Conferenza Europea sulla Computer Vision il mese scorso. Esso è stato creato da Aayush Bansal e Deva Ramanan di Carnegie Mellon, e Shugao Ma e Yaser Sheikh di Facebook dell’Oculus Ricerca di Pittsburgh.

Una pagina web per il lavoro ha un sacco di esempi di video che sono stati trasformati in nuove versioni, tra cui Oliver-Colbert mash up, e quelli con Barack Obama discorsi controllo fotogrammi del video con il Presidente Donald Trump, somiglianza, e viceversa. Ogni politico è fatto di scimmiottare l’altro i movimenti dell’occhio, la bocca, movimenti, sguardi, espressioni, ecc. Ci sono anche i paesaggi dove la brezza è stato creato artificialmente in una scena di un giorno di calma, copiando il vento i modelli in un video originale.

Gli autori sottolineano che tali retargeting di movimenti potrebbe essere di beneficio in avatar per la realtà virtuale: metodi Esistenti hanno lottato per costruire avatar quando le caratteristiche dei volti sono nascosti, si nota, e l’eccesso di informazioni in sequenza temporale di fotogrammi del video potrebbe aggirare tali ostacoli. Che sembra almeno in parte spiegare la connessione a Facebook dell’Oculus unità.

L’apprendimento profondo la rete si avvale del cosiddetto generativa, in contraddittorio, le reti, o GANs, dove un sistema di equazioni, chiamato un generatore, deve trasformare fotogrammi video per sintetizzare un nuovo frame e un altro sistema di equazioni, il discriminatore, è per cercare di raccontare il falso dall’originale. I due competere con la contraffazione e l’indagine, come i falsari e i poliziotti, fino a quando il generatore viene così bravo a fingere fotogrammi del video che la discriminante non può dire loro la cosa reale.

facebook-recycle-gan.png

I ricercatori della Carnegie Mellon e Facebook aveva una macchina di apprendimento della rete neurale adattare lo stile del comico John Oliver per creare un nuovo, falso video di Stephen Colbert parlare con i gesti e i modi di Oliver.

I ricercatori hanno costruito su di un agosto di ricerca di carta da UC Berkeley chiamato Ciclo-GAN. Che hanno trasformato le immagini fisse. Il concetto principale, quella di un “ciclo”, significa che l’immagine originale può essere recuperato dal falso, allo stesso modo una traduzione da inglese a francese da un computer dovrebbe essere in grado per poi cedere la frase originale quando tradotti dal francese all’inglese. Questo libro aggiunge una conoscenza di come un immagine di un volto o un paesaggio, un fiore cambia da un fotogramma all’altro.

Gli autori pensano di migliorare la traduzione da una cosa all’altra con l’aggiunta di più “vincoli” del problema. Come scrivono, “naturale segnali visivi sono intrinsecamente spatiotemporal di natura, che fornisce forti vincoli temporali per libero. Questo risultato significativamente migliore mapping.”

Anche: Google AI ricercatori di trovare strano motivo in più per giocare a Compromessi!

I risultati di questo studio suggeriscono gli autori, che l’aggiunta di dati temporali, migliora la falsità. Avevano 15 soggetti umani guardate i video che hanno creato e dire se sono veri o falsi. Quasi un terzo del tempo, il 28 per cento, la gente erroneamente giudicato un falso video creato con questo nuovo approccio, come autentici, mentre con i video che sono stati creati con il precedente Ciclo-GAN tecnologia, erano solo ingannare circa il 7,3 per cento del tempo.

Uno dei risultati di tale inganno può essere molto di più roba falsa. Come si affinano le reti neurali, gli autori fanno notare meglio approssimativa dello “stile” di un video in un nuovo video fake … cose come la cadenza di un altoparlante impresso su un altro. “Utilizzo di spatiotemporal modelli generativi,” scrivono, “permetterebbe di imparare anche la velocità di output generato. E. g. Due persone possono avere diversi modi di content delivery e che una persona può richiedere più tempo rispetto ad altri per dire la stessa cosa.”

Anche: Facebook fact-checkers treno AI rileva la profonda falso” video

Gli autori, felicemente, la presentazione di uno dei loro fallimenti, sempre un rinfrescante ingrediente. Hanno preso un video di un uccello e mappato a un video di un cartone animato uccello origami formato. Il falso video non riesce quando il vero uccello vola fuori dal suo posatoio e al di fuori della scena. Il falso origami uccello inizialmente è andato via, ma poi in modo inappropriato è tornata indietro. Gli autori scrivono che la loro rete neurale sta avendo problemi con la completa assenza di un uccello. “Il nostro algoritmo non è in grado di rendere la transizione di associazione quando l’uccello reale è completamente invisibile, e così è generato casualmente un volo origami,” essi concludono.

Precedente e relativa copertura:

Che cosa è l’IA? Tutto quello che devi sapere

Un esecutivo a guida di intelligenza artificiale, machine learning e generale AI alle reti neurali.

Cos’è il deep learning? Tutto quello che devi sapere

Il lowdown su deep learning: da come si relaziona con il più ampio campo di machine learning a come iniziare con esso.

Che cosa è macchina di apprendimento? Tutto quello che devi sapere

Questa guida spiega in cosa consiste la macchina di apprendimento, di come esso è legato all’intelligenza artificiale, come funziona e perché è importante.

Che cos’è il cloud computing? Tutto quello che devi sapere su

Un’introduzione al cloud computing destra, dalle nozioni di base fino a IaaS e PaaS, ibrido, public e private cloud.

Storie correlate:

Non c’è un ruolo per IA o scienza di dati: questa è una squadra effortStartup Affini porta scheggia di speranza per l’IA in roboticsAI: La vista dal Capo Scienza di Dati OfficeSalesforce intro Einstein Voce, una IA assistente vocale per enterprisesIt non i posti di lavoro AI è distruggere che mi da fastidio, è quelli che sono growingHow Facebook scale AIGoogle Duplex mi preoccupa di CNETCome la Home page di Google è meglio di Amazon Echo CNET

Argomenti Correlati:

La Realtà Virtuale

La Trasformazione Digitale

CXO

Internet delle Cose

L’innovazione

Enterprise Software

0