Kunstig intelligens viser seg å være en meget dyktig verktøy når det gjelder å manipulere videoer av folk. Ansikt-bytte deepfakes har vært den mest synlige eksempelet, men nye programmer blir funnet hver dag. Det siste? Kaller det deepfakes for dans — den bruker kunstig INTELLIGENS til å lese noen dansetrinn og kopiere dem på et mål kroppen.
Den faktiske vitenskap her ble gjort av en kvartett av forskere fra UC Berkley. Som de beskriver i en artikkel lagt ut på arXiV, deres system består av et antall diskrete steg. Først, en video av målet er registrert, og en sub-programmet viser deres bevegelser til en pinne figur. (Ganske mye av video er nødvendig for å få en god kvalitet transfer, rundt 20 minutter med opptak på 120 bilder per sekund.) Så, en kilde video er funnet og en pinne figur laget av sine bevegelser. Så, swap skjer, med et neuralt nettverk syntetisere video av målet enkelte basert på pinne figur bevegelser av kilde.
Systemet kan brukes til å overføre alle slags stiler — fra moderne dans ballett.
Det høres enkelt som dette, selvfølgelig, men det er massevis av smarte engineering på jobb her. For eksempel, det er en delrutine som glatter bevegelsen av stokk tall, slik at danserne ikke rykk om for mye, og en helt egen nevrale nettverk dedikert til å re-tracing målet ansikt for å sikre realisme.
Det er også begrensninger i programmet. Nettverket kan ikke nøyaktig modell løs stoffer for eksempel, så målet enkelte har å bruke tettsittende klær. I videoen over kan du også se ganske mange visuelle avvik; øyeblikk hvor leddene i mål og kilde danser ikke ganske stille opp, eller hvor AI programvare ikke kunne reprodusere komplekse bevegelser, som en side flipping fra tilbake til forsiden.
Fortsatt, skjønt, det er imponerende arbeid. Det er den slags video manipulasjon som trolig ville ta et helt team dager å produsere. Nå, er alt det tar noen kilde video og høyre KI-programvare. Det kommer til å bli omgjort til en app før for lenge, og bare ikke tenke på mulige implikasjoner om hvilken teknologi som dette vil gjøre til vår tillit av video bevis.