Politikkgrupper ber Apple om å forlate planene om å skanne enheter etter bilder av overgrep mot barn

0
100

En internasjonal koalisjon av politikk- og borgerrettighetsgrupper publiserte torsdag et åpent brev der de ba Apple om å “forlate sine nylig annonserte planer om å bygge overvåkingskapasitet i iPhone, iPad og andre Apple -produkter.” Gruppene inkluderer American Civil Liberties Union, Electronic Frontier Foundation, Access Now, Privacy International og Tor Project.

Tidligere denne måneden kunngjorde Apple sine planer om å bruke ny teknologi innen iOS for å oppdage potensielle bilder av barnemishandling med det mål å begrense spredningen av seksuelt misbruk av barn (CSAM) på nettet. Apple kunngjorde også en ny “kommunikasjonssikkerhetsfunksjon”, som vil bruke maskinlæring på enheten til å identifisere og uskarpe seksuelt eksplisitte bilder mottatt av barn i Messages-appen. Foreldre til barn på 12 år og yngre kan varsles hvis barnet ser eller sender et slikt bilde.

“Selv om disse funksjonene er ment å beskytte barn og redusere spredningen av seksuelle overgrep mot barn materiale, er vi bekymret for at de vil bli brukt til å sensurere beskyttet tale, true personvernet og sikkerheten til mennesker rundt om i verden og få katastrofale konsekvenser for mange barn, ”skrev gruppene i brevet.

Apples nye “Barnesikkerhet” -side beskriver planene, som krever skanning på enheten før et bilde sikkerhetskopieres i iCloud. Skanningen skjer ikke før en fil blir sikkerhetskopiert til iCloud, og Apple sier at den bare mottar data om en kamp hvis de kryptografiske bilagene (lastet opp til iCloud sammen med bildet) for en konto oppfyller en terskel for samsvarende kjent CSAM. Apple og andre e -postleverandører i skyen har brukt hash -systemer til å søke etter CSAM sendt via e -post, men det nye programmet vil bruke de samme skanningene på bilder som er lagret i iCloud, selv om brukeren aldri deler eller sender dem til noen andre.

Relaterte

Apples kontroversielle nye barnevernfunksjoner, forklart

Som svar på bekymringer om hvordan teknologien kan bli misbrukt, Apple fulgte opp med å si at den ville begrense bruken til å oppdage CSAM “og vi vil ikke imøtekomme noen myndighets forespørsel om å utvide den,” sa selskapet.

Mye av tilbakeslaget mot de nye tiltakene har vært fokusert på enhetsskanningsfunksjonen, men borgerrettighets- og personvernsgruppene sa at planen om å sløre nakenhet i barns iMessages potensielt kan sette barn i fare og vil bryte iMessages ende-til-ende-kryptering.

“Når denne bakdørfunksjonen er innebygd, kan regjeringer tvinge Apple til å utvide varsling til andre kontoer og til å oppdage bilder som er kritikkverdige av andre årsaker enn å være seksuelt eksplisitte,” heter det i brevet sier.