Google, Meta, OpenAI og X (tidligere Twitter) er blant 20 teknologiselskaper som har lovet å luke ut uredelig innhold generert av kunstig intelligens (AI), som en del av arbeidet med å sikre globale valg som forventes å finne sted i år.
Gruppen av selskaper signerte Tech Accord for å bekjempe villedende bruk av AI i 2024-valget på sikkerhetskonferansen i München, som skisserer et “frivillig rammeverk av prinsipper og handlinger” som dekker forebygging, oppdagelse, respons, evaluering, og identifisere kilden til villedende AI-valginnhold.
Også: Etikken til generativ AI: Hvordan vi kan utnytte denne kraftige teknologien
Den inkluderer også innsats for å øke offentlig bevissthet om hvordan de kan beskytte seg mot å bli manipulert av slikt innhold, ifølge en felles uttalelse utgitt av teknologiavtalens underskrivere, som også inkluderer TikTok, Amazon, IBM, Anthropic og Microsoft.
Med avtalen lover de 20 organisasjonene å observere åtte oppdragserklæringer, inkludert å søke å oppdage og forhindre distribusjon av villedende AI-valginnhold og gi åpenhet til publikum om hvordan det adresserer slikt innhold. De vil jobbe sammen for å utvikle og implementere verktøyene for å identifisere og dempe spredningen av innholdet, samt spore opprinnelsen til slikt innhold.
Disse innsatsen kan omfatte utvikling av klassifiserere eller herkomstmetoder og standarder, for eksempel vannmerking eller signerte metadata, og vedlegg maskinlesbar informasjon til AI-generert innhold.
De åtte forpliktelsene vil gjelde der det er relevant for tjenestene hvert selskap leverer.
Også: Valget 2024: Hvordan AI vil lure velgerne hvis vi ikke gjør noe nå
Avtalen dekker innhold definert som “overbevisende” AI-generert lyd, video og bilder som “villedende forfalsker eller endrer utseendet, stemmen eller handlingene” til politiske kandidater, valgfunksjonærer og andre sentrale interessenter i en valg, eller som sender uredelig informasjon til offentligheten om hvor, når og hvordan de skal stemme.
“2024 vil bringe flere valg til flere mennesker enn noe år i historien, med mer enn 40 land og mer enn fire milliarder mennesker som velger sine ledere og representanter,” heter det i teknologiavtalen. “Samtidig skaper den raske utviklingen av AI nye muligheter og utfordringer for den demokratiske prosessen. Hele samfunnet vil måtte lene seg inn i mulighetene AI gir og ta nye skritt sammen for å beskytte valg og valgprosessen. i løpet av dette eksepsjonelle året.”
Dessuten: Vi er ikke klare for virkningen av generativ AI på valg
Avtalen tar sikte på å sette forventninger til hvordan underskriverne vil håndtere risikoer som oppstår fra villedende AI-valginnhold opprettet via deres offentlige plattformer eller åpne grunnleggende modeller, eller distribuert på deres sosiale plattformer og publiseringsplattformer. Disse er i tråd med underskrivernes egne retningslinjer og praksis.
Modeller eller demoer beregnet for forskningsformål eller primært for bedriftsbruk dekkes ikke av avtalen.
Underskriverne la til at AI kan utnyttes for å hjelpe forsvarere med å motvirke dårlige aktører og muliggjøre raskere oppdagelse av villedende kampanjer. AI-verktøy kan også redusere de totale forsvarskostnadene betydelig, slik at mindre organisasjoner kan implementere robuste beskyttelser.
“Vi er forpliktet til å gjøre vår del som teknologiselskaper, samtidig som vi erkjenner at villedende bruk av AI ikke bare er en teknisk utfordring, men et politisk, sosialt og etisk spørsmål, og håper at andre på samme måte vil forplikte seg til handling på tvers av samfunnet,” underskriverne sa. “Vi bekrefter at beskyttelse av valgintegritet og offentlig tillit er et delt ansvar og et felles beste som overskrider partipolitiske interesser og nasjonale grenser.”
Også: Vil du jobbe med AI? Hvordan dreie karrieren din i 5 trinn
Christoph Heusgen, leder av Münchens sikkerhetskonferanse, sa at avtalen er et «avgjørende skritt» for å fremme valgintegritet og samfunnsmessig motstandskraft. Det vil også bidra til å skape “pålitelig teknologipraksis,” sa han.
Assosierte risikoer fra AI-drevet feilinformasjon om samfunnsmessig samhold vil dominere landskapet i år, ifølge Global Risks Report 2024 utgitt i forrige måned av World Economic Forum (WEF). Rapporten lister opp feilinformasjon og desinformasjon som den ledende globale risikoen i løpet av de neste to årene, og advarer om at den utbredte bruken så vel som verktøyene for å spre den kan undergrave legitimiteten til nye innkommende regjeringer.