YouTuber træner AI-bot på 4chans pile o' bile med helt forudsigelige resultater

0
199

En YouTuber ved navn Yannic Kilcher har udløst kontrovers i AI-verdenen efter at have trænet en bot på indlæg indsamlet fra 4chans Politisk ukorrekte board (også kendt som /pol/).

Tavlen er 4chans mest populære og kendte for sin toksicitet (selv i 4chan-miljøet, hvor det er muligt). Plakater deler racistiske, kvindehadende og antisemitiske budskaber, som botten – opkaldt GPT-4chan efter den populære serie af GPT-sprogmodeller lavet af forskningslaboratoriet OpenAI – lærte at efterligne. Efter at have trænet sin model, udgav Kilcher den tilbage på 4chan som flere bots, som udsendte titusindvis af gange på /pol/.

“Modellen var god, i en frygtelig forstand,” siger Kilcher i en video på YouTube, der beskriver projektet. “Det indkapslede perfekt blandingen af ​​offensivitet, nihilisme, trolling og dyb mistillid til enhver information overhovedet, der gennemsyrer de fleste indlæg på /pol/.”

“[B]andre bots og meget dårligt sprog forventes fuldstændigt på /pol /”

I en tale til The Verge beskrev Kilcher projektet som en “prank”, som han mener, havde en lille skadelig effekt i betragtning af 4chans natur. “[Begge bots og meget dårligt sprog forventes fuldstændigt på /pol/,” sagde Kilcher via privat besked. “Folk der var ikke påvirket ud over at undre sig over, hvorfor en person fra Seychellerne ville skrive i alle trådene og komme med noget usammenhængende udtalelser om sig selv.”

(Kilcher brugte en VPN til at få det til at se ud som om, at bots postede fra Seychellerne, et ø-land i det Indiske Ocean i øgruppen. Denne geografiske oprindelse blev brugt af plakater på 4chan til at identificere botsen/robotterne, som de kaldte “seychellerne” anon.”)

Kilcher bemærker, at han ikke delte koden til selve bots, som han beskrev som “teknisk-mæssigt den svære del”, og som ville have tilladt enhver at implementere dem online. Men han postede den underliggende AI-model til AI-fællesskabet Hugging Face, så andre kan downloade. Dette ville have givet andre med kodningsviden mulighed for at rekonstruere bots, men Hugging Face tog beslutningen om at begrænse adgangen til projektet.

Mange AI-forskere, især inden for AI-etik, har kritiseret Kilchers projekt som et opmærksomhedssøgende stunt – især i betragtning af hans beslutning om at dele den underliggende model.

“Der er intet galt i at lave en 4chan-baseret model og teste, hvordan den opfører sig. Den største bekymring, jeg har, er, at denne model er frit tilgængelig til brug,” skrev AI-sikkerhedsforsker Lauren Oakden-Rayner på diskussionssiden for GPT-4chan på Hugging Face.

Oakden-Rayner fortsætter:

“Modelforfatteren har brugt denne model til at producere en bot, der lavede titusindvis af skadelige og diskriminerende onlinekommentarer på et offentligt tilgængeligt forum, et forum, der har tendens til at være tæt befolket af teenagere ikke mindre. Der er ingen tvivl om, at sådanne menneskelige eksperimenter aldrig ville passere en etisk vurderingskomité, hvor forskere bevidst udsætter teenagere for genereret skadeligt indhold uden deres samtykke eller viden, især i betragtning af de kendte risici for radikalisering på websteder som 4chan.”

En bruger på Hugging Face, der testede modellen, bemærkede, at dens output var forudsigeligt giftigt. “Jeg prøvede dit værktøjs demotilstand 4 gange ved at bruge godartede tweets fra mit feed som starttekst,” sagde brugeren. “I det første forsøg var et af de besvarende indlæg et enkelt ord, N-ordet. Frøet til min tredje retssag var, tror jeg, en enkelt sætning om klimaændringer. Dit værktøj reagerede ved at udvide det til en konspirationsteori om Rothchilds [sic] og jøder, der står bag det.”

En kritiker kaldte projektet “performance art provokation”

På Twitter, andre forskere diskuterede projektets implikation. “Det, du har gjort her, er performancekunst-provokation i oprør mod regler & etiske standarder, du er bekendt med,” sagde datavidenskabsstuderende Kathryn Cramer i et tweet rettet mod Kilcher.

Andrey Kurenkov, en datalogi ph.d. der redigerer populære AI-publikationer Skynet Today og The Gradient, tweetede på Kilcher, at “at frigive [AI-modellen] er lidt … edgelord? Helt ærligt, hvad er din begrundelse for at gøre dette? Forudser du, at den bliver brugt til god brug, eller udgiver du den for at skabe drama og 'ride op med det vågne publikum'?”

Kilcher har forsvaret projektet ved at argumentere for, at botterne i sig selv ikke forårsagede nogen skade (fordi 4chan allerede er så giftig), og at deling af projektet på YouTube også er godartet (fordi at skabe bots i stedet for selve AI-modellen er den svære del, og at ideen om at skabe offensive AI-bots i første omgang er ikke ny).

“[Jeg]hvis jeg skulle kritisere mig selv, ville jeg for det meste kritisere beslutningen om overhovedet at starte projektet,” sagde Kilcher til The Verge. “Jeg tror, ​​at alt er lige, kan jeg nok bruge min tid på lige så virkningsfulde ting, men med meget mere positivt fællesskabsudbytte. så det er det, jeg vil fokusere mere på herfra.”

Det er interessant at sammenligne Kilchers arbejde med det mest berømte eksempel på bots-gone-bad fra fortiden: Microsofts Tay. Microsoft frigav den AI-drevne chatbot på Twitter i 2016, men blev tvunget til at tage projektet offline mindre end 24 timer senere, efter at brugere lærte Tay at gentage forskellige racistiske og inflammatoriske udtalelser. Men mens det tilbage i 2016 var store teknologivirksomheders domæne at skabe en sådan bot, viser Kilchers projekt, at meget mere avancerede værktøjer nu er tilgængelige for ethvert enkeltmands kodningsteam.

Kernen i Kilchers forsvar formulerer dette samme punkt. Selvfølgelig kan det være uetisk at slippe AI-bots løs på 4chan, hvis du arbejdede for et universitet. Men Kilcher er overbevist om, at han bare er en YouTuber, med den implikation, at der gælder forskellige regler for etik. I 2016 var problemet, at en virksomheds R&D-afdeling kunne skabe en offensiv AI-bot uden ordentligt tilsyn. I 2022 er problemet måske, at du slet ikke har brug for en R&D-afdeling.