OpenAIs nye verktøy kan oppdage sine egne DALL-E 3 AI-bilder, men det er en hake

0
25
DALL-E 3 in Chat= Maria Diaz/ZDNET

AI-genererte bilder kan brukes til å lure deg til å tro at falskt innhold er ekte. Som sådan har ChatGPT-utvikleren OpenAI utviklet et verktøy som tar sikte på å forutsi hvorvidt et bilde ble opprettet ved hjelp av sin egen DALL-E 3-bildegenerator. Bildegjenkjenningsklassifisererens suksessrate avhenger imidlertid av om og hvordan bildet ble endret.

Tirsdag ga OpenAI den første gruppen av testere tilgang til sitt nye bildegjenkjenningsverktøy. Målet er å verve uavhengige forskere til å vurdere verktøyets effektivitet, analysere nytten i den virkelige verden, finne ut hvordan det kan brukes og se på faktorene som bestemmer AI-generert innhold. Interesserte forskere kan søke om tilgang på nettsiden til DALL-E Detection Classifier Access Program.

OpenAI har testet verktøyet internt, og resultatene så langt har vært lovende på noen måter og skuffende på andre. Når du analyserte bilder generert av DALL-E 3, identifiserte verktøyet dem riktig rundt 98 % av tiden. Videre, når du analyserte bilder som ikke ble laget av DALL-E 3, feilidentifiserte verktøyet dem som å være laget av DALL-E 3 bare rundt 0,5 % av tiden.

Mindre endringer i et bilde hadde også liten innvirkning, ifølge OpenAI. Interne testere var i stand til å komprimere, beskjære og bruke endringer i metning på et bilde laget av DALL-E 3, og verktøyet viste en lavere, men fortsatt relativt høy suksessrate. Så langt så bra.  

Også: Slik bruker du DALL-E 3 i ChatGPT

Dessverre gikk ikke verktøyet like bra med bilder som gjennomgikk mer omfattende endringer. I sitt blogginnlegg avslørte ikke OpenAI suksessraten i disse tilfellene, annet enn å bare si at “andre modifikasjoner kan imidlertid redusere ytelsen.”

Verktøyets effektivitet falt under forhold som å endre fargetonen til et bilde, fortalte OpenAI-forsker Sandhini Agarwal til The Wall Street Journal (abonnement kreves). OpenAI håper å fikse denne typen problemer ved å gi eksterne testere tilgang til verktøyet, la Agarwal til.

Intern testing utfordret også verktøyet til å analysere bilder laget ved hjelp av AI-modeller fra andre selskaper. I disse tilfellene var OpenAIs verktøy i stand til å identifisere bare 5 % til 10 % av bildene fra disse eksterne modellene. Å gjøre endringer på slike bilder, som å endre fargetonen, førte også til en kraftig nedgang i effektiviteten, sa Agarwal til Journal. Igjen, dette er en annen begrensning som OpenAI håper å rette opp med videre testing.

Ett pluss for OpenAIs deteksjonsverktøy — det er ikke avhengig av vannmerker. Andre selskaper bruker vannmerker for å indikere at et bilde er generert av deres egne AI-verktøy, men disse kan fjernes ganske enkelt, noe som gjør dem ineffektive.

Selv om det alltid er en potensiell trussel, er AI-genererte bilder spesielt problematiske i et valgår. Fiendtlige partier, både i og utenfor et land, kan lett bruke slike bilder til å male politiske kandidater eller saker i et negativt lys. Gitt de pågående fremskrittene innen AI-bildegeneratorer, blir det mer og mer en utfordring å finne ut hva som er ekte og hva som er falskt.

Også: De beste AI-bildegeneratorene å prøve akkurat nå

Med denne trusselen i tankene har OpenAI og Microsoft lansert et 2 millioner dollar Societal Resilience Fund for å utvide AI-utdanning og leseferdighet blant velgere og sårbare samfunn. Gitt at 2 milliarder mennesker rundt om i verden allerede har stemt eller vil stemme ved demokratiske valg i år, er målet å sikre at enkeltpersoner bedre kan navigere i digital informasjon og finne pålitelige ressurser.

OpenAI sa også at det' s å bli med i styringskomiteen til C2PA (Coalition for Content Provenance and Authenticity). Brukt som bevis på at innhold kom fra en spesifikk kilde, er C2PA en standard for sertifisering av digitalt innhold tatt i bruk av programvareleverandører, kameraprodusenter og nettplattformer. OpenAI sier at C2PA-metadata er inkludert i alle bilder som er opprettet og redigert i DALL-E 3 og ChatGPT, og vil snart vises i videoer laget av OpenAIs Sora-videogenerator.