Singapore jobber med tekniske retningslinjer for sikring av AI-systemer

0
15
breddesikkerhetsteknologi = Just_Super/Getty Images

Singapore planlegger snart å gi ut instruksjoner som de sier vil tilby "praktiske tiltak" for å styrke sikkerheten til kunstig intelligens (AI) verktøy og systemer. Cyber ​​Security Agency (CSA) skal publisere sitt utkast til tekniske retningslinjer for sikring av AI-systemer for offentlig høring senere denne måneden, ifølge Janil Puthucheary, Singapores seniorminister for kommunikasjons- og informasjonsdepartementet.

< p>De frivillige retningslinjene kan vedtas sammen med eksisterende sikkerhetsprosesser som organisasjoner implementerer for å håndtere potensielle risikoer i AI-systemer, sa Puthucheary under sin åpningstale onsdag på Association of Information Security Professionals (AiSP) AI-sikkerhetstoppmøte.

Gjennom de tekniske retningslinjene håper CSA å tilby en nyttig referanse for cybersikkerhetseksperter som ønsker å forbedre sikkerheten til AI-verktøyene sine, sa ministeren. Han oppfordret videre industrien og samfunnet til å gjøre sitt for å sikre at AI-verktøy og -systemer forblir trygge og sikre mot ondsinnede trusler, selv når teknikkene fortsetter å utvikle seg.

Også: De beste VPN-tjenestene (og hvordan du velger den rette for deg)

“I løpet av de siste par årene har kunstig intelligens spredt seg raskt og blitt distribuert i et bredt spekter av områder”," sa Puthucheary. “Dette har betydelig påvirket trussellandskapet. Vi vet at denne raske utviklingen og bruken av AI har utsatt oss for mange nye risikoer, [inkludert] motstandsdyktig maskinlæring, som lar angripere kompromittere funksjonen til modellen."

Han pekte på hvordan sikkerhetsleverandøren McAfee lyktes i å kompromittere Mobileye ved å gjøre endringer i fartsgrenseskiltene som AI-systemet ble opplært til å gjenkjenne.

AI gir næring til nye sikkerhetsrisikoer, og organisasjoner i offentlig og privat sektor må jobbe for å forstå dette utviklende trussellandskapet, sa Puthucheary. Han la til at Singapores regjerings-CIO, Government Technology Agency (GovTech), utvikler muligheter for å simulere potensielle angrep på AI-systemer for å forstå hvordan de kan påvirke sikkerheten til slike plattformer. “Ved å gjøre det vil dette hjelpe oss med å sette de riktige sikringene på plass”," sa han.

Puthucheary la til at innsatsen for bedre å beskytte seg mot eksisterende trusler må fortsette, siden AI er sårbar for “klassisk” cybertrusler, for eksempel de som er rettet mot personvern. Han bemerket at den økende bruken av AI vil utvide angrepsoverflaten der data kan eksponeres, kompromitteres eller lekkes. Han sa at AI kan benyttes for å lage stadig mer sofistikert skadelig programvare, som WormGPT, som kan være vanskelig for eksisterende sikkerhetssystemer å oppdage.

Også: Sybersikkerhetsteam trenger nye ferdigheter selv når de sliter med å administrere eldre systemer

Samtidig kan AI utnyttes til å forbedre cyberforsvar og bevæpningssikkerhetseksperter med evnen til å identifisere risikoer raskere, i skala, og med bedre presisjon, sa ministeren. Han sa at sikkerhetsverktøy drevet av maskinlæring kan bidra til å oppdage uregelmessigheter og sette i gang autonom handling for å redusere potensielle trusler. 

I følge Puthucheary oppretter AiSP en spesialinteressegruppe for AI, der medlemmene kan utveksle innsikt om utvikling og muligheter. Etablert i 2008, beskriver AiSP seg selv som en industrigruppe som fokuserer på å drive teknisk kompetanse og interesser i Singapores nettsikkerhetssamfunn.

Også: AI er endrer cybersikkerhet og virksomheter må våkne opp til trusselen

I april ga US National Security Agencys AI Security Center ut et informasjonsark, Deploying AI Systems Securely, som den sa tilbød beste praksis om distribusjon og drift av AI-systemer. 

Utviklet i samarbeid med US Cybersecurity and Information Security Agency, tar retningslinjene sikte på å forbedre integriteten og tilgjengeligheten til AI-systemer og skape begrensninger for kjente sårbarheter i AI-systemer . Dokumentet skisserer også metoder og kontroller for å oppdage og svare på ondsinnede aktiviteter mot AI-systemer og relaterte data.