Deepfakes för att dansa: du kan nu använda AI att fejka dessa danssteg du alltid velat ha

0
241

Artificiell intelligens har visat sig vara en mycket kapabel verktyg när det gäller att manipulera videor av människor. Ansikte-byta deepfakes har varit den mest synliga exempel, men nya applikationer som finns varje dag. Den senaste? Kalla det deepfakes för dans — den använder AI att läsa någons danssteg och kopiera dem på ett mål kroppen.

Den verkliga vetenskapen här var gjort av en kvartett av forskare från UC Berkley. Som de beskriver i en artikel publicerad på arXiV, deras system består av ett antal diskreta steg. Först en video av målet är inspelade, och en sub-program visar sina rörelser till en streckgubbe. (Ganska mycket video som behövs för att få en bra kvalitet på överföringen, cirka 20 minuter film i 120 bilder per sekund). Sedan, en källa video finns och en pinne figur gjord av sina rörelser. Då byta händer, med ett neuralt nätverk som syntetiserar video av individen baserat på stick figur rörelser av källa.

Systemet kan användas för att överföra alla typer av stilar — från modern dans till balett.

Det låter enkelt, som här naturligtvis, men det finns massor av smart teknik i arbetet här. Till exempel, det är en subrutin som jämnar ut flödet av streckgubbar så att dansarna inte rycka om för mycket, och en helt separat neurala nätverk för att åter spåra målet ansikte för att se till realism.

Det finns också begränsningar i programmet. Nätverket kan inte exakt modell lösa tyger som till exempel, så att det mål som individen har att bära åtsittande kläder. I videon ovan kan du också se en hel del visuella avvikelser; stunder där lederna i målet och källan dansare inte riktigt rada upp, eller där AI-program inte kunde återge komplexa rörelser, som en hand vända från baksidan till framsidan.

Fortfarande, om det är ett imponerande arbete. Det är den typen av video manipulation som förmodligen skulle ta ett helt team dagar att producera. Nu allt som krävs är några av källa video och rätt AI-program. Räkna med att det förvandlas till en app innan alltför lång tid, och bara inte tänka på de möjliga konsekvenserna om vilken teknik som detta kommer att göra att vårt förtroende för video-bevis.