AI-telefonsvindel høres skummelt ut. Gjør disse 5 tingene for å beskytte deg selv og familien din

0
14
ArtMarie/Getty Images

Du har kanskje hørt historier om familier som tar opp telefonen for å høre stemmene til deres gråtende, livredde kjære, etterfulgt av stemmene til kidnapperne som krever en umiddelbar overføring av penger.

Men det finnes ingen kidnappinger i disse scenariene. Disse stemmene er ekte — de har nettopp blitt manipulert av svindlere som bruker AI-modeller for å generere dype forfalskninger (akkurat som når noen endret Joe Bidens stemme i primærvalgene i New Hampshire for å avskrekke velgere fra å stemme) . Folk trenger ofte bare å ringe raskt for å bevise at ingen barn, ektefeller eller foreldre har blitt bortført, til tross for hvor skummelt autentiske disse stemmene er.

Også: Hvordan finne og fjerne spionprogrammer fra telefonen din

Problemet er at når sannheten kommer frem, kan panikkrammede familier allerede ha hostet opp store mengder penger til disse falske kidnappere. Det som er verre er at etter hvert som disse teknologiene blir billigere og mer allestedsnærværende – og dataene våre blir lettere tilgjengelige – kan flere mennesker bli stadig mer utsatt for disse svindelene.

Så hvordan beskytter du deg selv mot disse. svindel? 

Hvordan AI-telefonsvindel fungerer

Først litt bakgrunn: hvordan replikerer svindlere individuelle stemmer? 

Selv om videodeepfakes er mye mer komplekse å generere, er lyddeepfakes enkle å lage, spesielt for en rask hit-and-run-svindel . Hvis du eller din kjære har lagt ut videoer på YouTube eller TikTok-video, for eksempel, trenger en svindler så lite som tre sekunder av det opptaket for å klone stemmen din. Når de har den klonen, kan svindlere manipulere den til å si omtrent hva som helst.

Også: Denne AI-genererte kryptofaktura-svindelen fikk meg nesten, og jeg er en sikkerhetsekspert

OpenAI opprettet en stemmekloningstjeneste kalt Voice Engine, men stoppet offentlig tilgang til den på pause i mars, tilsynelatende på grunn av påvist potensial for misbruk. Likevel er det allerede flere gratis stemmekloningsverktøy av forskjellige kvaliteter tilgjengelig på GitHub.

Det finnes imidlertid autovernversjoner av denne teknologien også. Ved å bruke din egen stemme eller en du har lovlig tilgang til, lar Voice AI-selskapet ElevenLabs deg lage 30 minutter med klonet lyd fra en ett-minutters prøve. Abonnementsnivåer lar brukere legge til flere stemmer, klone en stemme på et annet språk og få flere minutter med klonet lyd – pluss at selskapet har flere sikkerhetskontroller på plass for å forhindre uredelig kloning.

Også: På reise? Ta med deg dette antispionkameraet og feilsøkeren på $50

Under de rette omstendighetene er AI-stemmekloning nyttig. ElevenLabs tilbyr et imponerende bredt utvalg av syntetiske stemmer fra hele verden og på forskjellige språk som du kan bruke med bare tekstmeldinger, noe som kan hjelpe mange bransjer lettere å nå ut til en rekke målgrupper. 

Når stemme-AI forbedres, kan færre uregelmessige pauser eller latensproblemer gjøre det vanskeligere å oppdage forfalskninger, spesielt når svindlere kan få anropene deres til å se ut som om de kommer fra et legitimt nummer. Her er hva du kan gjøre for å beskytte deg selv nå og i fremtiden. 

1. Ignorer mistenkelige anrop

Det høres kanskje åpenbart ut, men det første trinnet for å unngå AI-telefonsvindel er å ignorere anrop fra ukjente numre. Jada, det kan være enkelt nok å svare, fastslå at et anrop er spam og legge på – men du risikerer å lekke taledataene dine. 

Også:&#xA0 ;NSA råder deg til å slå telefonen av og på igjen en gang i uken – her er hvorfor

Svindlere kan bruke disse anropene til stemmefisking, eller falske ringer deg spesifikt for å samle de få sekundene med lyd som trengs for å lykkes med å klone stemmen din. Spesielt hvis nummeret er ugjenkjennelig, avslå det uten å si noe og slå opp nummeret på nettet. Dette kan avgjøre legitimiteten til den som ringer. Hvis du har lyst til å svare for å sjekke, si så lite som mulig. 

Du vet sannsynligvis at noen som ringer deg for personlig eller bankrelatert informasjon ikke bør stole på. Du kan alltid bekrefte et anrops autentisitet ved å kontakte institusjonen direkte, enten via telefon eller andre bekreftede kommunikasjonslinjer som tekst, supportchat eller e-post.

Heldigvis vil de fleste mobiltjenester nå forhåndsskjerme ukjente numre og merk dem som potensiell spam, og gjør noe av jobben for deg. 

2. Ring dine slektninger

Hvis du får en alarmerende samtale som høres ut som noen du kjenner, er den raskeste og enkleste måten å avkrefte en AI-kidnappingssvindel å bekrefte at din kjære er trygg via en tekst- eller telefonsamtale. Det kan være vanskelig å gjøre hvis du er i panikk eller ikke har en annen telefon tilgjengelig, men husk at du kan sende en tekstmelding mens du fortsatt er på telefonen med den sannsynlige svindleren. 

3. Etabler et kodeord

Med kjære, spesielt barn, bestem deg for et felles hemmelig ord å bruke hvis de er i trøbbel, men ikke kan snakke. Du vet at det kan være svindel hvis du får et mistenkelig anrop og din påståtte kjære ikke kan produsere kodeordet ditt. 

4. Still spørsmål

Du kan også spørre svindleren som utgir seg for å være din kjære en spesifikk detalj, som hva de spiste til middag i går kveld, mens du prøver å nå din kjære separat. Ikke gi deg: Sjansen er stor for at svindleren kaster inn håndkleet og legger på.

5. Vær bevisst på hva du legger ut

Minimer ditt digitale fotavtrykk på sosiale medier og offentlig tilgjengelige nettsteder. Du kan også bruke digitale vannmerker for å sikre at innholdet ditt ikke kan tukles med. Dette er ikke idiotsikkert, men det er det nest beste før vi finner en måte å beskytte metadata mot å bli endret.

Hvis du planlegger å laste opp lyd- eller videoklipp til internett, bør du vurdere å legge det til gjennom Antifake, en gratis programvare utviklet av forskere fra Washington University i St. Louis. 

Også: Hvordan finne ut om en AirTag sporer deg

Programvaren – kildekoden som er tilgjengelig på GitHub – tilfører lyden ekstra lyder og forstyrrelser. Selv om disse ikke vil forstyrre hvordan den originale høyttaleren høres ut for mennesker, vil de få lyden til å høres helt annerledes ut enn et AI-kloningssystem, og dermed hindre forsøk på å endre det. 

6. Ikke stol på dypfalske detektorer 

Flere tjenester, inkludert Pindrop Security, AI or Not, og AI Voice Detector, hevder å kunne oppdage AI-manipulert lyd. De fleste krever imidlertid en abonnementsavgift, og noen eksperter tror ikke de er verdt tiden. V.S. Subrahmanian, en professor i datavitenskap ved Northwestern University, testet 14 offentlig tilgjengelige deteksjonsverktøy. “Du kan ikke stole på lyddeepfake-detektorer i dag, og jeg kan ikke anbefale en for bruk,”" sa han til Poynter. 

"Jeg vil si at ingen enkelt verktøy anses som fullstendig pålitelig ennå for allmennheten til å oppdage dypfalsk lyd," la Manjeet Rege til, direktør for Center for Applied Artificial Intelligence ved University of St. Thomas. “En kombinert tilnærming som bruker flere gjenkjenningsmetoder er det jeg vil anbefale på dette stadiet.”

Også: 80 % av folk tror deepfakes vil påvirke valg. 3 måter du kan forberede deg på

I mellomtiden har informatikere jobbet med bedre deepfake-deteksjonssystemer, som University at Buffalo Media Forensic Labs DeepFake-O-Meter, satt til lansering snart. Inntil da, i fravær av en pålitelig, offentlig tilgjengelig tjeneste, stol på din dømmekraft og følg trinnene ovenfor for å beskytte deg selv og dine kjære.