Nettkriminelle bruker Metas Llama 2 AI, ifølge CrowdStrike

0
34
Skjoldbredde Yuichiro Chino/Getty Images

Cybercrime-antrekk har tatt nye skritt for å bruke generativ AI til å iscenesette angrep, inkludert Meta's Llama 2 store språkmodell, ifølge nettsikkerhetsfirmaet CrowdStrike i sin årlige Global Threat Report, publisert onsdag.

Gruppen Scattered Spider benyttet seg av Metas store språkmodell for å generere skript for Microsofts PowerShell-oppgaveautomatiseringsprogram, melder CrowdStrike. Programmet ble brukt til å laste ned påloggingsinformasjonen til ansatte hos «et nordamerikansk offer for finanstjenester», ifølge CrowdStrike.

Også: 7 hackingverktøy som ser ufarlige ut, men som kan gjøre reell skade

Forfatterne sporet Llama 2s bruk ved å undersøke koden i PowerShell. “PowerShell som ble brukt til å laste ned brukernes uforanderlige ID-er lignet store språkmodeller (LLM) utganger som de fra ChatGPT,” sier CrowdStrike. “Spesielt samsvarer mønsteret til én kommentar, den faktiske kommandoen og deretter en ny linje for hver kommando med Llama 2 70B-modellutgangen. Basert på den lignende kodestilen, stolte Scattered Spider sannsynligvis på en LLM for å generere PowerShell-skriptet i dette aktivitet.”

Forfatterne advarer om at muligheten til å oppdage generative AI-baserte eller generative AI-forbedrede angrep for øyeblikket er begrenset, på grunn av vanskeligheten med å finne spor av LLM-bruk. Firmaet antar at LLM-bruken er begrenset så langt: “Bare sjeldne konkrete observasjoner inkluderte sannsynlig motstandsdyktig bruk av generativ AI under noen driftsfaser.” 

Men ondsinnet bruk av generativ AI vil garantert øke, faste prosjekter: “AIs kontinuerlige utvikling vil utvilsomt øke styrken til potensiell misbruk.”

Også: Jeg testet Metas Code Llama med 3 AI-kodingsutfordringer som ChatGPT klarte – og det var ikke bra

Angrepene så langt har møtt utfordringen at de høye kostnadene ved å utvikle store språkmodeller har begrenset hva slags utdata angripere kan generere fra modellene for å bruke som angrepskode. 

“Trusselaktørers forsøk å lage og bruke slike modeller i 2023 utgjorde ofte svindel som skapte relativt dårlige resultater og i mange tilfeller raskt ble nedlagt», heter det i rapporten. 

En annen mulighet for ondsinnet bruk i tillegg til kodegenerering er feilinformasjon, og i den forbindelse fremhever CrowdStrike-rapporten overfloden av regjeringsvalg i år som kan bli utsatt for feilinformasjonskampanjer. 

I tillegg til presidentvalget i USA. valget i år, “Enkeltpersoner fra 55 land som representerer mer enn 42 % av verdens befolkning vil delta i president-, parlaments- og/eller stortingsvalg,” bemerker forfatterne. 

Også: Tech giganter lover å bekjempe uredelig AI-innhold i megavalgåret

Å tukle med valg er delt inn i høyteknologi og lavteknologi. Den høyteknologiske ruten, sier forfatterne, er å forstyrre eller forringe stemmesystemer ved å tukle med både stemmemekanismene og spredningen til velgerne av informasjon om stemmegivning.

Den lavteknologiske tilnærmingen er feilinformasjon, slik som «forstyrrende fortellinger» som «kan undergrave offentlig tillit».

Slike «informasjonsoperasjoner» eller «IO», som CrowdStrike kaller dem, forekommer allerede, «ettersom kinesiske skuespillere har brukt AI- generert innhold i sosiale medier påvirker kampanjer for å spre innhold som er kritisk til presidentvalgskandidater i Taiwan.” 

Bedriften spår: “Gitt med hvor lett AI-verktøy kan generere villedende, men overbevisende fortellinger, vil motstandere høyst sannsynlig bruke slike verktøy for å gjennomføre IO mot valg i 2024. Politisk aktive partisaner i de landene som holder valg vil sannsynligvis også bruke generativ AI for å skape desinformasjon for å spre i sine egne kretser.»