Facebook Oculus onderzoek ambachten vreemde mashup van John Oliver en Stephen Colbert

0
127

Nul

Een draad van de recente kunstmatige intelligentie revival is het vervaardigen van vervalsingen die er uitzien en klinken overtuigend echte, zoals reproducties van schilderijen van bekende kunstenaars.

Onderzoekers aan Facebook ‘s Oculus research lab, en collega’ s aan de Carnegie Mellon, hebben ontwikkeld neurale netwerken die nep-video ‘s tonen hoe het zou zijn als één persoon sprak op de wijze van een andere persoon, of video’ s van een bewolkte dag in een plaats waar er daadwerkelijk een heldere hemel in de werkelijkheid.

Het product van al deze video ‘s zijn die kunnen worden verontrustende of spannend, afhankelijk van je perspectief: Komiek John Oliver’ s oorspronkelijke monoloog kan gemaakt worden van craft een nieuwe, valse volgorde van de video door collega-komiek Stephen Colbert, het vertalen van Oliver ‘ s uitdrukkingen en gebaren naar de gelijkenis van een Colbert.

Ook: het Bekijken van YouTube video ‘ s kan op een dag laat robots kopie mensen

Het fenomeen dat bekend staat als “retargeting” is onderzocht voor de jaren, vooral bij stilstaande beelden. Het nieuwe onderzoek belooft te verfijnen visuele vervalsingen door gebruik meer van de aanwijzingen van het moment-tot-moment verschuift van frames in een video.

Het papier, Recyle-GAN: zonder Toezicht Video Retargeting, is geplaatst op het arXiv pre-printserver en werd gepresenteerd op de 15e van de Europese Conferentie over Computer Vision vorige maand. Het is geschreven door Aayush Bansal en Deva Ramanan van Carnegie Mellon, en Shugao Ma en Yaser Sheikh van Facebook ‘ s Oculus Onderzoek in Pittsburgh.

Een webpagina voor het werk heeft veel voorbeelden van video ‘s die zijn omgetoverd tot nieuwe versies, met inbegrip van de Oliver-Colbert mash up, en die met Barack Obama’ s toespraken controle frames van de video met President Donald Trump ‘ s gelijkenis, en vice versa. Elke politicus is gemaakt naar ape het andere oog de bewegingen, de mond bewegingen, blik, uitdrukkingen, enz. Er zijn ook landschappen waar een briesje is kunstmatig gemaakt in een scène van een rustige dag door het kopiëren van de wind patronen in een originele video.

De auteurs wijzen erop dat een dergelijke stroomlijning van bewegingen kon worden van de uitkering avatars in de virtuele realiteit: Bestaande methoden hebben moeite om op te bouwen avatars als kenmerken van gezichten zijn afgesloten, merken zij op, en de extra informatie in de temporele sequentie van frames van de video kan je rond deze obstakels. Dat lijkt op zijn minst gedeeltelijk verklaren de verbinding met Facebook is Oculus-eenheid.

De deep learning network maakt gebruik van zogenaamde generatieve tegenspraak netwerken, of GANs, waar een stelsel van vergelijkingen, wel een generator, moeten transformeren van video-frames om te synthetiseren enkele nieuwe beelden, en een ander systeem van vergelijkingen, de discriminator, is om te proberen te vertellen dat het nep uit het origineel. De twee concurreren met valsheid in geschrifte en onderzoek, zoals vervalsers en politie, totdat de generator wordt zo goed in het vervalsen van video-frames die de discriminator kan niet vertellen wat ze van het echte ding.

facebook-recycle-gan.png

Onderzoekers aan de Carnegie Mellon en Facebook een machine had leren neurale netwerk aanpassen van de stijl van komiek John Oliver om een nieuwe te maken, nep-video van Stephen Colbert spreken met de bewegingen en maniertjes van Oliver.

De onderzoekers gebouwd op een augustus research paper van UC Berkeley onderzoekers genoemd Cyclus-GAN. Die werken net getransformeerd stilstaande beelden. De sleutel begrip, dat van een “cyclus” betekent dat het originele beeld kan worden hersteld van de valse, op dezelfde manier als een vertaling van het engels naar het frans door een computer moet kunnen dan het rendement van de oorspronkelijke zin, wanneer vertaald van het frans naar het engels. Dit document voegt een kennis van hoe een foto van een gezicht of een landschap of een bloem verandert van het ene frame naar de andere frame.

De auteurs geloven dat ze de verbetering van de vertaling van het ene ding naar het andere door het toevoegen van meer “beperkingen” voor het probleem. Zo schrijven ze, “veel natuurlijke visuele signalen zijn van nature spatiotemporal in de natuur, die zorgt voor een sterke temporele beperkingen gratis. Dit resulteert in aanzienlijk beter toewijzingen.”

Ook: Google AI-onderzoekers vinden nieuwe vreemde reden om te spelen Gevaar!

De resultaten van de studie suggereren de auteurs dat het toevoegen van temporele gegevens verbetert de imitatie. Ze had 15 proefpersonen kijken naar de video ‘ s die ze hebben gemaakt en zeggen of ze echt of nep. Bijna een derde van de tijd, 28 procent van de mensen ten onrechte veroordeeld voor een nep-video gemaakt met deze nieuwe aanpak als originele fabrieksonderdelen, terwijl bij video ‘ s die zijn gemaakt met de vorige Cyclus-GAN-technologie, ze waren alleen maar voor de gek houden over 7,3 procent van de tijd.

Een van de resultaten van dergelijke misleiding kan veel meer nep spul. Als ze het verfijnen van de neurale netten, de auteurs merken ze kunnen beter een benadering van de “stijl” van een video in een nieuwe nep-video, dingen als de cadans van een spreker wijst op een ander. “Met behulp van spatiotemporal generatieve modellen,” schrijven ze, “zou toestaan om te leren zelfs de snelheid van de gegenereerde output. E. g. Twee mensen hebben verschillende manieren van content delivery en dat een persoon kan langer duren dan andere om hetzelfde te zeggen.”

Ook op: Facebook het fact-checkers trein AI op te sporen “diep nep” video ‘ s

De auteurs, gelukkig, vandaag één van hun fouten, altijd een verfrissende stof. Ze nam een video van een vogel en is toegewezen aan een video van een geanimeerde vogel in origami-formaat. De nep-video mislukt wanneer de echte vogel vliegt uit de baars en uit de scene. De nep-origami vogel in eerste instantie ging weg, maar dan is het ongepast terug gevlogen. De auteurs schrijven dat hun neurale netto moeite heeft met het omgaan met de volledige afwezigheid van de vogel. “Ons algoritme is niet in staat om de overgang van vereniging als de echte vogel is volledig onzichtbaar is, en dus het gegenereerde willekeurige vliegen origami,” concluderen ze.

Vorige en aanverwante dekking:

Wat is AI? Alles wat je moet weten

Een executive gids voor kunstmatige intelligentie, van machine learning en algemene AI-neurale netwerken.

Wat is diep leren? Alles wat je moet weten

De lowdown op diep leren: van hoe het zich verhoudt tot het bredere veld van machine-leren door te zien hoe aan de slag met het.

Wat is machine learning? Alles wat je moet weten

In deze gids wordt uitgelegd wat ‘machine learning’ is, hoe het is in verband met kunstmatige intelligentie, hoe het werkt en waarom het belangrijk is.

Wat is cloud computing? Alles wat u moet weten over

Een introductie van cloud computing recht vanaf de basis tot IaaS en PaaS -, hybride -, public en private cloud.

Verwante artikelen:

Er is geen rol voor de AI of data science: dit is een team effortStartup Verwanten brengt glimp van hoop voor AI in roboticsAI: Het uitzicht vanuit de Chief Data Science OfficeSalesforce intro ‘ s van Einstein Stem, een AI-voice assistant voor enterprisesIt is niet de banen AI is het vernietigen van dat stoort me, het is die growingHow Facebook schalen AIGoogle Duplex mij zorgen baart, CNETHoe de Google Startpagina is beter dan de Amazon Echo CNET

Verwante Onderwerpen:

Virtual Reality

Digitale Transformatie

CXO

Het Internet van Dingen

Innovatie

Enterprise Software

0