I februar kunngjorde Meta planer om å legge til nye etiketter på Instagram, Facebook og Threads for å indikere når et bilde var AI-generert. Nå, ved å bruke tekniske standarder laget av selskapet og industripartnere, planlegger Meta å bruke sin “Made with AI”; etiketter til videoer, bilder og lydklipp generert av AI, basert på visse bransjedelte signaler. (Bedriften legger allerede til en “Imagined with AI”-tag til fotorealistiske bilder laget med sine egne AI-verktøy.)
I et blogginnlegg publisert på fredag kunngjorde Meta planer om å begynne å merke AI-generert innhold i mai 2024 og slutte automatisk å fjerne slikt innhold i juli 2024. Tidligere stolte selskapet på sin manipulerte mediepolicy for å avgjøre om eller ikke bør AI-skapte bilder og videoer tas ned. Meta forklarte at endringen stammer fra tilbakemeldinger fra tilsynsrådet, samt opinionsundersøkelser og konsultasjoner med akademikere og andre eksperter.
"Hvis vi fastslår at digitalt opprettede eller endrede bilder, video eller lyd skaper en spesielt høy risiko for å lure publikum i en viktig sak, kan vi legge til en mer fremtredende etikett slik at folk har mer informasjon og kontekst," Meta sa i sitt blogginnlegg. “Denne overordnede tilnærmingen gir folk mer informasjon om innholdet slik at de bedre kan vurdere det og slik at de vil ha kontekst hvis de ser det samme innholdet andre steder.”
Også: Jeg testet Meta' s Code Llama med 3 AI-kodingsutfordringer som ChatGPT klarte – og det var ikke bra
Meta's Oversight Board, som ble opprettet i 2020 for å gjennomgå selskapets retningslinjer for innholdsmoderering, fant at Metas eksisterende AI-modereringstilnærming er for snever. Skrevet i 2020, da AI-generert innhold var relativt sjeldent, omfattet retningslinjene bare videoer som ble opprettet eller modifisert av AI for å få det til å virke som om en person sa noe de ikke gjorde. Gitt de nylige fremskrittene innen generativ AI, sa styret at policyen nå også må dekke enhver type manipulasjon som viser at noen gjør noe de ikke gjorde.
Videre hevder styret at fjerning av AI-manipulerte medier som ellers ikke bryter Metas fellesskapsstandarder kan begrense ytringsfriheten. Som sådan anbefalte styret en mindre restriktiv tilnærming der Meta ville merke mediene som AI generert, men likevel la brukerne se det.
Meta og andre selskaper har møtt klager på at industrien ikke har gjort nok for å slå ned på spredningen av falske nyheter. Bruken av manipulerte medier er spesielt bekymringsfull ettersom USA og mange andre land holder valg i 2024 der videoer og bilder av kandidater lett kan forfalskes.
"Vi ønsker å hjelpe folk å vite når fotorealistiske bilder har blitt opprettet eller redigert ved hjelp av AI, så vi vil fortsette å samarbeide med bransjekolleger gjennom fora som Partnership on AI og forbli i dialog med myndigheter og sivilsamfunn – og vi vil fortsette å vurdere vår tilnærming etter hvert som teknologien utvikler seg," Meta lagt til i innlegget sitt.