Kan myndigheter gjøre AI sikkerhetsprat til handling?

0
91
Andriy Onufriyenko/Getty Images

På  Asia Tech x Singapore 2024 toppmøtet var flere foredragsholdere klare for diskusjoner på høyt nivå og økt bevissthet om viktigheten av sikkerhet med kunstig intelligens (AI) for å bli til handling. Mange ønsker å forberede alle fra organisasjoner til enkeltpersoner med verktøyene for å implementere denne teknologien riktig. 

Også: Hvordan bruke ChatGPT til å analysere PDF-filer gratis

"Pragmatisk og praktisk handling. Det er det som mangler," sa Ieva Martinekaite, leder for forskning og innovasjon i Telenor Group, som snakket med ZDNET på sidelinjen av toppmøtet. Martinekaite er styremedlem i Norwegian Open AI Lab og medlem av Singapores rådgivende råd for etisk bruk av AI og data. Hun fungerte også som ekspertmedlem i EU-kommisjonens høynivåekspertgruppe for kunstig intelligens fra 2018 til 2020. 

Martinekaite bemerket at topptjenestemenn også begynner å anerkjenne dette problemet.& #xA0;

Delegater på konferansen, som inkluderte toppregjeringsministre fra forskjellige nasjoner, spøkte at de rett og slett brente flydrivstoff ved å delta på høynivåmøter på AI-sikkerhetstoppmøter, sist i Sør-Korea og Storbritannia, gitt at de har lite ennå å vise til. i form av konkrete trinn. 

Martinekaite sa at det er på tide at regjeringer og internasjonale organer begynner å rulle ut spillebøker, rammeverk og benchmarkingverktøy for å hjelpe bedrifter og brukere med å sikre at de implementerer og bruker AI trygt. Hun la til at det også er behov for fortsatt investeringer for å legge til rette for slik innsats.

Spesielt AI-genererte deepfakes medfører betydelig risiko og kan påvirke kritiske infrastrukturer, advarte hun. De er allerede en realitet i dag: bilder og videoer av politikere, offentlige personer og til og med Taylor Swift har dukket opp.

Også: Det finnes flere politiske dype forfalskninger enn du tror

Martinekaite la til at teknologien nå er mer sofistikert enn den var for et år siden, noe som gjør det stadig vanskeligere å identifisere dype forfalskninger. Cyberkriminelle kan utnytte denne teknologien for å hjelpe dem med å stjele legitimasjon og ulovlig få tilgang til systemer og data. 

"Hackere hacker ikke, de logger på," hun sa. Dette er et kritisk problem i enkelte sektorer, for eksempel telekommunikasjon, hvor dype falske data kan brukes til å trenge inn i kritisk infrastruktur og forsterke cyberangrep. Martinekaite bemerket at medarbeider-ID-er kan forfalskes og brukes til å få tilgang til datasentre og IT-systemer, og la til at hvis denne tregheten forblir uadressert, risikerer verden å oppleve et potensielt ødeleggende angrep. 

Brukere må utstyres med nødvendig opplæring og verktøy for å identifisere og bekjempe slike risikoer, sa hun. Teknologien for å oppdage og forhindre slikt AI-generert innhold, inkludert tekst og bilder, må også utvikles, for eksempel digital vannmerking og medieetterforskning. Martinekaite mener disse bør implementeres ved siden av lovgivning og internasjonalt samarbeid.

Hun bemerket imidlertid at lovgivningsmessige rammer ikke bør regulere teknologi, eller AI-innovasjon kan bli kvalt og påvirke potensielle fremskritt innen helsevesenet, for eksempel. 

I stedet bør regelverket adressere hvor dypfalsk teknologi har størst innvirkning, som kritisk infrastruktur og offentlige tjenester. Krav som vannmerking, autentisering av kilder og å sette rekkverk rundt datatilgang og sporing kan deretter implementeres for høyrisikosektorer og relevante teknologileverandører, sa Martinekaite. 

I følge Microsofts hovedansvarlige AI-offiser Natasha Crampton, har selskapet sett en økning i dype forfalskninger, bilder uten samtykke og nettmobbing. Under en paneldiskusjon på toppmøtet sa hun at Microsoft fokuserer på å spore villedende nettinnhold rundt valg, spesielt med flere valg som finner sted i år.

Stefan Schnorr, statssekretær i Tysklands forbundsdepartement for digitalt og transport, sa deepfakes potensielt kan spre falsk informasjon og villede velgere, noe som resulterer i tap av tillit til demokratiske institusjoner. 

Også: Hva TikToks innholdslegitimasjon betyr for deg

Beskyttelse mot dette innebærer også en forpliktelse til å beskytte personopplysninger og personvern, la Schnorr til. Han understreket behovet for at internasjonalt samarbeid og teknologiselskaper overholder cyberlover som er innført for å drive AI-sikkerhet, som for eksempel EUs AI-lov. 

Hvis de får lov til å forevige uhindret, kan dype forfalskninger påvirke beslutningsprosessen, sa Zeng Yi, direktør for det hjerneinspirerte kognitive intelligenslaboratoriet og The International Research Center for AI Ethics and Governance, Institute of Automation, Chinese Academy of Sciences. 

Zeng understreket også behovet for internasjonalt samarbeid, og foreslo at et dypt falskt “observatorium”; anlegget bør etableres over hele verden for å øke forståelsen og utveksle informasjon om desinformasjon i et forsøk på å hindre slikt innhold fra å florere på tvers av land. 

En global infrastruktur som sjekker mot fakta og desinformasjon kan også hjelpe informere allmennheten om deepfakes, sa han.  

Singapore oppdaterer generasjonsrammeverket for AI-styring 

I mellomtiden har Singapore sluppet den endelige versjonen av sitt styringsrammeverk for generativ AI, som utvider sin eksisterende AI-styring rammeverk, først introdusert i 2019 og sist oppdatert i 2020. 

Model AI Governance Framework for GenAI setter en "systematisk og balansert" tilnærmingen som Singapore sier balanserer behovet for å møte GenAI-bekymringer og drive innovasjon. Den omfatter ni dimensjoner, inkludert hendelsesrapportering, innholdsopprinnelse, sikkerhet og testing og forsikring, og gir forslag til innledende skritt å ta. 

På et senere tidspunkt vil AI Verify, gruppen bak rammeverket, legge til mer detaljerte retningslinjer og ressurser under de ni dimensjonene. For å støtte interoperabilitet, vil de også kartlegge styringsrammeverket til internasjonale AI-retningslinjer, slik som G7 Hiroshima-prinsippene.

Også: Apples AI funksjoner og Nvidias AI-treningshastighet topper innovasjonsindeksen

Godt styresett er like viktig som innovasjon for å oppfylle Singapores visjon om AI for godt, og kan bidra til å muliggjøre vedvarende innovasjon, sa Josephine Teo, Singapores kommunikasjons- og informasjonsminister og minister med ansvar for Smart Nation og Cybersecurity, under talen hennes på toppmøtet. 

"Vi må innse at det er én ting å håndtere de skadelige effektene av AI, men en annen ting å forhindre at de skjer i utgangspunktet. ..gjennom riktig design og oppstrømstiltak," sa Teo. Hun la til at risikoreduserende tiltak er avgjørende, og nye forskrifter som er “basert på bevis” kan resultere i mer meningsfylt og virkningsfull AI-styring.

Ved siden av etableringen av AI-styring, søker Singapore også å utvide sine styringsevner, for eksempel å bygge et senter for avansert teknologi innen nettsikkerhet som fokuserer på skadelig AI-generert nettinnhold. 

Brukere også. , trenger å forstå risikoen. Teo bemerket at det er i allmennhetens interesse for organisasjoner som bruker kunstig intelligens å forstå fordelene så vel som dens begrensninger. 

Teo mener at bedrifter da bør utstyre seg med riktig tankesett, evner og verktøy for å gjøre det. Hun la til at Singapores modell for AI-styringsrammeverk gir praktiske retningslinjer for hva som bør implementeres som sikkerhetstiltak. Den setter også grunnleggende krav til AI-implementeringer, uavhengig av selskapets størrelse eller ressurser.

Ifølge Martinekaite, for Telenor betyr AI-styring også å overvåke bruken av nye AI-verktøy og revurdere potensielle risikoer. Det norske teleselskapet prøver for tiden Microsoft Copilot, som er bygget på OpenAIs teknologi, mot Telenors egne etiske AI-prinsipper.

På spørsmål om OpenAIs nylige kamp som involverte Voice Mode hadde påvirket hennes tillit til å bruke teknologi, sa Martinekaite at store bedrifter som driver kritisk infrastruktur som Telenor har kapasiteten og sjekker på plass for å sikre at de bruker pålitelige AI-verktøy, inkludert tredjepartsplattformer som OpenAI. Dette inkluderer også samarbeid med partnere som skyleverandører og mindre løsningsleverandører for å forstå og lære om verktøyene den bruker. 

Telenor opprettet en arbeidsgruppe i fjor for å overvåke bruken av ansvarlig AI . Martinekaite forklarte at dette innebærer å etablere prinsipper de ansatte må følge, lage regelbøker og verktøy for å veilede AI-bruken, og sette standarder som partnere, inkludert Microsoft, bør følge.

Disse er ment å sikre at teknologien selskapet bruker er lovlig og sikker, la hun til. Telenor har også et internt team som gjennomgår risikostyrings- og styringsstrukturene for å ta hensyn til GenAI-bruken. Den vil vurdere verktøy og rettsmidler som kreves for å sikre at den har riktig styringsstruktur for å administrere AI-bruken i høyrisikoområder, bemerket Martinekaite. 

Også: Bedrifter' skysikkerhetsfeil er 'bekymrende' etter hvert som AI-trusler akselererer

Når organisasjoner bruker sine egne data til å trene og finjustere store språkmodeller og mindre AI-modeller, tror Martinekaite at bedrifter og AI-utviklere i økende grad vil diskutere hvordan disse dataene brukes og administrert. 

Hun tror også behovet for å overholde nye lover, slik som EU AI-loven, vil gi ytterligere næring til slike samtaler, ettersom selskaper jobber for å sikre at de oppfyller tilleggskravene for høy- risiko AI-utplasseringer. For eksempel må de vite hvordan AI-treningsdataene deres er kuratert og sporet. 

Det er mye mer gransking og bekymringer fra organisasjoner som vil se nøye på kontraktsavtalene deres. med AI-utviklere.