Hvordan AI-brannmurer vil sikre de nye forretningsapplikasjonene dine

0
31
ai-tunnel-getty BlackJack3D/Getty Images

AI og cybersikkerhet har vært uløselig knyttet sammen i mange år. De gode gutta bruker AI til å analysere innkommende datapakker og hjelper til med å blokkere ondsinnet aktivitet mens de slemme gutta bruker AI for å finne og skape hull i målene sine. sikkerhet. AI har bidratt til det stadig eskalerende våpenkappløpet.

AI har blitt brukt til å styrke forsvarssystemer ved å analysere enorme mengder innkommende trafikk i maskinhastighet, og identifisere kjente og nye mønstre. Etter hvert som kriminelle, hackere og nasjonalstater implementerer flere og mer sofistikerte angrep, brukes AI-verktøy for å blokkere noen av disse angrepene, og hjelpe menneskelige forsvarere ved å eskalere bare de mest kritiske eller komplekse angrepsatferdene.

< strong>Også: Hvordan AI kan forbedre cybersikkerhet ved å utnytte mangfold

Men angripere har også tilgang til AI-systemer, og de har blitt mer sofistikerte både når det gjelder å finne utnyttelser og å bruke teknologier som AI for å tvinge multiplisere deres kadre av kriminelle hjerner. Det høres hyperbolsk ut, men de slemme gutta ser ikke ut til å ha mangel på svært talentfulle programmerere som – motivert av penger, frykt eller ideologi for å forårsake skade – bruker talentene sine til å angripe infrastruktur.

Ingenting av dette er nytt, og det har vært en pågående utfordring i årevis. Her er hva som er nytt: Det er en ny klasse med mål — AI-systemet for forretningsverdi (vi kaller dem stort sett chatbots). I denne artikkelen vil jeg gi litt bakgrunn om hvordan vi – ved bruk av brannmurer – har beskyttet forretningsverdi tidligere, og hvordan en ny type brannmur akkurat nå utvikles og testes for å beskytte utfordringer som er unike for drift og tillit. på AI chatbots på den kommersielle arenaen.

Forstå brannmurer

Den typen angrep og forsvar som praktiseres av tradisjonell (ja, det har vært lenge nok til at vi kan kalle det “tradisjonell”) AI-basert cybersikkerhet forekommer i nettverks- og transportlagene i nettverksstakken. OSI-modellen er et konseptuelt rammeverk utviklet av International Organization for Standardization for å forstå og kommunisere de ulike operasjonslagene i et moderne nettverk.

< img src="https://www.zdnet.com/article/1" width="1280" height="719.9733422192603" fetchpriority="low" alt="osi-modell" height="0" width="0" title="Hvordan AI-brannmurer vil sikre dine nye forretningsapplikasjoner" />David Gewirtz/ZDNET

Nettverkslaget ruter pakker på tvers av nettverk, mens transportlaget administrerer dataoverføring, og sikrer pålitelighet og flytkontroll mellom sluttsystemer.

Også: Vil du jobber i AI? Slik snur du karrieren din i 5 trinn

Tradisjonelle angrep forekommer i henholdsvis lag 3 og 4 i OSI-nettverksmodellen, og har vært ganske nær maskinvaren og kablingen til nettverket og ganske langt fra lag 7, applikasjonslaget. Det er langt opp i applikasjonslaget at de fleste applikasjonene vi mennesker er avhengige av daglig, får gjøre sitt. Her er en annen måte å tenke på dette: Nettverksinfrastrukturen rørleggerarbeid bor i de nedre lagene, men forretningsverdien bor i lag 7.

Nettverks- og transportlagene er som den underjordiske kjeden av sammenhengende huler og passasjer som forbinder bygninger i en by, og fungerer blant annet som kanaler for leveranser og avfallshåndtering. Applikasjonslaget er som de vakre butikkfrontene der kundene handler.

I den digitale verden har nettverksbrannmurer lenge vært i frontlinjen og forsvart seg mot angrep på lag 3 og 4. De kan skanne data når de kommer, finne ut om det er en nyttelast skjult i en pakke, og blokkere aktivitet fra steder som anses som spesielt urovekkende.

Også: Ansatte legger inn sensitive data i generative AI-verktøy til tross for risikoen

Men det er en annen type brannmur som har eksistert en stund, nettapplikasjonsbrannmuren, eller WAF. Dens jobb er å blokkere aktivitet som skjer på nettapplikasjonsnivå.

En WAF overvåker, filtrerer og blokkerer ondsinnet HTTP-trafikk; forhindrer SQL-injeksjon og cross-site scripting (XSS) angrep, injeksjonsfeil, ødelagt autentisering og eksponering av sensitive data; gir tilpassede regelsett for programspesifikke beskyttelser; og reduserer blant annet DDoS-angrep. Med andre ord, det hindrer dårlige mennesker fra å gjøre dårlige ting til gode nettsider.

Vi begynner nå å se AI-brannmurer som beskytter nivå 7-data (forretningsverdien) på AI-chatbot-nivå. Før vi kan diskutere hvordan brannmurer kan beskytte disse dataene, er det nyttig å forstå hvordan AI-chatboter kan angripes.

Når dårlige mennesker angriper gode AI chatbots

I løpet av det siste året eller så har vi sett fremveksten av praktisk, fungerende generativ AI. Denne nye varianten av kunstig intelligens lever ikke bare i ChatGPT. Bedrifter distribuerer det overalt, men spesielt i kundevendte grensesnitt til brukerstøtte, selvdrevet salgsassistanse og til og med innen medisinsk diagnostikk.

Også: AI forvandler organisasjoner overalt. Hvordan disse 6 selskapene leder an

Det er fire tilnærminger til å angripe AI-chatboter. Fordi disse AI-løsningene er så nye, er disse tilnærmingene fortsatt stort sett teoretiske, men forvent at virkelige hackere vil gå disse veiene i løpet av det neste året eller så.

Motstridende angrep: Tidsskriftet ScienceNews diskuterer hvordan utnyttelser kan angripe måtene AI-modeller fungerer på. Forskere konstruerer setninger eller spørsmål som virker gyldige for en AI-modell, men som er designet for å manipulere svarene eller forårsake en slags feil. Målet er å få AI-modellen til å potensielt avsløre sensitiv informasjon, bryte sikkerhetsprotokoller eller svare på en måte som kan brukes til å sjenere operatøren.

Jeg diskuterte en veldig forenklet variant av denne typen angrep når en bruker matet villedende meldinger inn i det ubeskyttede chatbot-grensesnittet for Chevrolet of Watsonville. Ting gikk ikke bra.

Indirekte spørsmålsinjeksjon:Flere og flere chatbots vil nå lese aktive nettsider som en del av deres samtaler med brukere. Disse nettsidene kan inneholde hva som helst. Normalt, når et AI-system skraper innholdet på et nettsted, er det smart nok til å skille mellom menneskelesbar tekst som inneholder kunnskap som skal behandles, og støttekode og retningslinjer for formatering av nettsiden.

Også: Vi er ikke klare for virkningen av generativ AI på valg

Men angripere kan forsøke å legge inn instruksjoner og formatering i de nettsidene som lurer det som leser dem, noe som kan manipulere en AI-modell til å avsløre personlig eller sensitiv informasjon. Dette er en potensielt stor fare, fordi AI-modeller er avhengige av data hentet fra det brede, ville internett. MIT-forskere har utforsket dette problemet og har konkludert med at “AI chatbots er en sikkerhetskatastrofe.”

Dataforgiftning: Det er her — jeg er ganske overbevist — at utviklere av store språkmodeller (LLMs) gjør alt de kan for å skyte seg selv i sine virtuelle føtter. Dataforgiftning er praksisen med å sette inn dårlige treningsdata i språkmodeller under utvikling, i hovedsak det samme som å ta en geografitime om planetens sfæriske natur fra Flat Earth Society. Tanken er å presse inn falske, feilaktige eller med vilje villedende data under dannelsen av LLM, slik at den senere spruter ut feil informasjon.

Mitt favoritteksempel på dette er da Google lisensierte Stack Overflows innhold for Gemini LLM. Stack Overflow er et av de største online utviklerstøtteforumene med mer enn 100 millioner utviklere som deltar. Men som enhver utvikler som har brukt siden i mer enn fem minutter vet, for hvert enkelt klare og hjelpsomme svar er det fem til ti latterlige svar og sannsynligvis 20 flere svar som argumenterer for gyldigheten av alle svarene.

Også: De beste VPN-tjenestene i 2024: Eksperttestet

Å trene Gemini ved å bruke disse dataene betyr at ikke bare vil Gemini ha en mengde unike og verdifulle svar på alle slags programmeringsproblemer, men den vil også ha en enorm samling av svar som resulterer i forferdelige resultater.

Tenk deg nå om hackere vet at Stack Overflow-data regelmessig vil bli brukt til å trene Gemini (og det gjør de fordi det er blitt dekket av ZDNET og andre tekniske utsalgssteder): De kan konstruere spørsmål og svar bevisst utformet for å villede Gemini og dets brukere.

Distribuert tjenestenekt:Hvis du ikke trodde en DDoS kunne brukes mot en AI-chatbot, tro om igjen. Hver AI-spørring krever en enorm mengde data og dataressurser. Hvis en hacker oversvømmer en chatbot med spørringer, kan de potensielt bremse eller fryse svarene.

I tillegg lisensierer mange vertikale chatboter AI APIer fra leverandører som ChatGPT. En høy frekvens av falske forespørsler kan øke kostnadene for disse lisenshaverne hvis de betaler ved hjelp av målt tilgang. Hvis en hacker kunstig øker antallet API-anrop som brukes, kan API-lisensinnehaveren overskride sin lisensierte kvote eller møte betydelig økte kostnader fra AI-leverandøren.

Forsvar mot AI-angrep

Fordi chatbots er i ferd med å bli kritiske komponenter i forretningsverdiinfrastrukturen, er fortsatt drift viktig. Integriteten til forretningsverdien som tilbys må også beskyttes. Dette har gitt opphav til en ny form for brannmur, en som er spesielt utviklet for å beskytte AI-infrastruktur.

Også: Hvordan fungerer ChatGPT egentlig?

Vi har akkurat begynt å se generative AI-brannmurer som Firewall for AI-tjenesten som ble kunngjort av sikkerhetsselskapet Cloudflare. Cloudflares brannmur sitter mellom chatbot-grensesnittet i applikasjonen og selve LLM, og fanger opp API-anrop fra applikasjonen før de når LLM (hjernen til AI-implementeringen). Brannmuren fanger også opp svar på API-kallene, og validerer disse svarene mot ondsinnet aktivitet.

Blant beskyttelsen som tilbys av denne nye formen for brannmur er deteksjon av sensitive data (SDD). SDD er ikke nytt for nettapplikasjonsbrannmurer, men potensialet for en chatbot til å synliggjøre utilsiktede sensitive data er betydelig, så håndheving av databeskyttelsesregler mellom AI-modellen og forretningsapplikasjonen legger til et viktig lag med sikkerhet.

I tillegg forhindrer dette at folk bruker chatbot  — for eksempel ansatte internt i et selskap — fra å dele sensitiv forretningsinformasjon med en AI-modell levert av et eksternt selskap som OpenAI. Denne sikkerhetsmodusen hjelper til med å forhindre at informasjon kommer inn i den generelle kunnskapsbasen til den offentlige modellen.

Også: Er AI i programvareutvikling nå et “Oppenheimer-øyeblikk”? Her er det du trenger å vite

Cloudflares AI-brannmur, når den er utplassert, er også ment å håndtere modellmisbruk, en form for umiddelbar injeksjon og motstandsangrep ment å ødelegge utdataene fra modellen. Cloudflare kaller spesifikt denne brukssaken:

En vanlig brukssak vi hører fra kunder av vår AI Gateway er at de ønsker å unngå at applikasjonen deres genererer giftig, støtende eller problematisk språk. Risikoen ved å ikke kontrollere resultatet av modellen inkluderer skade på omdømmet og skade på sluttbrukeren ved å gi et upålitelig svar.

Det er andre måter en nettapplikasjonsbrannmur kan dempe angrep på, spesielt når det kommer til et volumetrisk angrep som spørringsbombing, som effektivt blir en spesialformåls-DDoS. Brannmuren bruker hastighetsbegrensende funksjoner som senker hastigheten og volumet av spørringer, og filtrerer ut de som ser ut til å være spesielt utviklet for å bryte API-en.

Ikke helt klar for beste sendetid

I følge Cloudflare kan beskyttelse mot volumetriske DDoS-angrep og gjenkjenning av sensitive data implementeres nå av kunder. Imidlertid er de raske valideringsfunksjonene – i utgangspunktet de sterkt AI-sentriske funksjonene til AI-brannmuren – fortsatt under utvikling og vil gå inn i beta i løpet av de kommende månedene.

Dessuten: Generativ AI fylte oss med undring i 2023 – men all magi kommer med en pris

Vanligvis ville jeg ikke snakke om et produkt på dette tidlige utviklingsstadiet, men jeg tror det er viktig å vise frem hvordan AI har gått inn i vanlig bruk av forretningsapplikasjonsinfrastruktur til et punkt hvor det både er gjenstand for angrep, og hvor det gjøres betydelig arbeid for å gi AI-basert forsvar.

Følg med. Vi vil holde styr på AI-distribusjoner og hvordan de endrer konturene til forretningsapplikasjonsverdenen. Vi skal også se på sikkerhetsproblemene og hvordan selskaper kan holde disse distribusjonene trygge.

DET har alltid vært et våpenkappløp. AI bringer bare en ny klasse med våpen å distribuere og forsvare.

Du kan følge mine daglige prosjektoppdateringer på sosiale medier. Sørg for å abonnere på mitt ukentlige oppdateringsnyhetsbrev på Substack, og følg meg på Twitter på @DavidGewirtz, på Facebook på Facebook.com/DavidGewirtz, på Instagram på Instagram.com/DavidGewirtz og på YouTube på YouTube.com/DavidGewirtzTV.< /p>