Snap ønsker å hjelpe deg med å identifisere Snapchats AI-genererte bilder ved hjelp av vannmerker

0
10
Min AI Snapchat Sabrina Ortiz/ZDNET

Snap planlegger å rulle ut en vannmerkefunksjon som vil hjelpe deg bedre å skille ekte bilder fra de designet av AI. Tirsdag kunngjorde mobilmeldingsselskapet at Snapchat vil legge til vannmerket til bilder laget ved hjelp av Snaps generative AI-verktøy.

Vannmerket, avbildet som en liten spøkelseslogo med det velkjente gnistikonet, vil vises på alle slike bilder som eksporteres eller lagres på kamerarullen. Vannmerket vil tilsynelatende ikke vises hvis du deler bilder i Snapchat-appen.

Snap legger til et vannmerke til et AI-generert bilde Lance Whitney/ZDNET

De siste årene har Snap lansert en rekke AI-drevne verktøy. Du kan bruke AI til å generere bakgrunnsbilder for å krydre samtalene dine, forvandle ansiktet ditt med freaky linser, plassere deg selv i forskjellige scener via Snapchat Dreams, chatte med My AI chatbot, og til og med lage et virtuelt kjæledyr.

Dilemmaet her er at folk lett kan bli lurt til å tro at et AI-generert bilde er ekte. Jada, hvis jeg deler et bilde tatt med et filter som får meg til å se ut som en romvesen eller en blekksprut, vet den andre personen at det ikke er ekte (med mindre de tror på romvesener eller snakkende sjødyr). I andre tilfeller kan AI-verktøy få noe til å se ganske legitimt ut.

Også: Snapchat AI blir enda rarere: Introduserer AI-kjæledyr

Snap bruker allerede noen få triks for å merke visse AI-genererte elementer. Kontekstuelle ikoner, symboler og etiketter vises når du samhandler med en Snapchat-funksjon drevet av AI. Et Dreams-bilde laget av AI vil vise et kontekstkort med flere detaljer. Et bilde som bruker Extend-verktøyet for å se mer utzoomet ut vil legge til gnistikonet for å angi at det er AI generert.

Siden AI brukes og misbrukes av politiske årsaker, bemerket Snap også at de ansatte vet. politiske annonser for misvisende bruk av innhold. Spesielt ser de etter tegn på at AI ble brukt for å lage et villedende bilde.

I sin nyhetsmelding forklarte Snap at selskapet også prøver å finne og teste for mulige feil i sine egne AI-modeller. Snap bruker red-teaming, en prosess der interne eller eksterne personer utgir seg for å være hackere og angripere som ønsker å utnytte sårbarheter eller snike seg forbi sikkerhetstiltak i generative AI-modeller. I Snaps tilfelle ser røde lagspillere etter potensielt partiske AI-resultater og innhold.

"Vi tror på det enorme potensialet for AI-teknologi for å forbedre fellesskapets evne til å uttrykke seg og få kontakt med hverandre ," Snap sa at det ble utgitt, “og vi er forpliktet til å fortsette å forbedre disse sikkerhets- og åpenhetsprotokollene.”