Apple slår bremsene på planene om å skanne brukerbilder etter innhold fra overgrep mot barn

0
120

 Charlie Osborne

Av Charlie Osborne for Zero Day | 6. september 2021 – 08:25 GMT (09:25 BST) | Tema: Sikkerhet

Apple har stanset planene om å skanne enheter for overgrep mot barn og utnyttelse av materiale etter at verktøyet ga bekymring blant brukere og personverngrupper.

De nye sikkerhetsfunksjonene ble kunngjort i forrige måned og var ment for inkludering i iOS 15, iPadOS 15, watchOS 8 og macOS Monterey. Den første var en funksjon for overvåking av Meldinger-applikasjonen, med maskinlæring på klientsiden implementert for å skanne og varsle når seksuelt eksplisitte bilder sendes, og krever innspill fra brukeren om de vil se materialet eller ikke.

“Som en ekstra forholdsregel kan barnet også bli fortalt at foreldrene vil få beskjed hvis de ser det,” fortalte selskapet.

Den andre omgangen med endringer påvirket Siri og Search, med oppdateringer inkludert for å gi tilleggsinformasjon for foreldre og barn for å advare dem når de snublet i “usikre” situasjoner, samt å “gripe inn” hvis et søk etter barnemateriale for seksuelt misbruk (CSAM) ) ble utført av en bruker.

Det tredje var et CSAM-skanningsverktøy, spioneringen som et middel for å “beskytte barn mot rovdyr som bruker kommunikasjonsverktøy for å rekruttere og utnytte dem.”

I følge iPhone- og iPad -produsenten vil verktøyet bruke kryptografi “for å begrense spredningen av CSAM online”, samtidig som det tar hensyn til brukernes personvern. Bilder vil ikke bli skannet i skyen, snarere vil det bli utført matching på enheten der bilder vil bli sammenlignet med hashes knyttet til kjente CSAM-bilder.

“CSAM -gjenkjenning vil hjelpe Apple med å gi verdifull informasjon til rettshåndhevelse om samlinger av CSAM i iCloud Photos,” sa selskapet. “Dette programmet er ambisiøst, og beskyttelse av barn er et viktig ansvar. Denne innsatsen vil utvikle seg og utvide seg over tid.”

I et teknisk papir (.PDF) som beskriver verktøyet, sa Apple:

“CSAM Detection gjør Apple i stand til å nøyaktig identifisere og rapportere iCloud -brukere som lagrer kjente CSAM i sine iCloud Photos -kontoer. Apples servere flagger kontoer som overstiger et terskel antall bilder som samsvarer med en kjent database med CSAM -bildeaviser, slik at Apple kan gi relevant informasjon til National Center for Missing and Exploited Children (NCMEC). Denne prosessen er sikker og er uttrykkelig designet for å bevare brukernes personvern. “

Skanneren oppnådde imidlertid kontrovers på nettet, noe som førte til kritikk fra personvernadvokater og kryptografieksperter. kan bli “en viktig ingrediens i å legge til overvåking i krypterte meldingssystemer.”

Selv om det er skapt med gode intensjoner, kan et slikt verktøy bli et mektig våpen i feil hender, for eksempel autoritære regjeringer og diktaturers.

Electronic Frontier Foundation slo også ned på planene og lanserte en begjæring for å legge press på Apple for å gå tilbake. I skrivende stund har anmodningen over 27 000 underskrifter. Fight for the Future og OpenMedia lanserte også lignende begjæringer.

3. september sa Apple at utrullingen er stoppet for å ta “ekstra tid” til å analysere verktøyene og deres potensielle fremtidige innvirkning.

“Tidligere kunngjorde vi planer for funksjoner som er ment å hjelpe til med å beskytte barn mot rovdyr som bruker kommunikasjonsverktøy for å rekruttere og utnytte dem og for å begrense spredningen av seksuelt misbruk av barn,” sa Apple. “Basert på tilbakemeldinger fra kunder, fortalergrupper, forskere og andre, har vi besluttet å ta oss ekstra tid i løpet av de kommende månedene for å samle innspill og gjøre forbedringer før vi slipper disse kritisk viktige barnesikkerhetsfunksjonene.”

Green sa at det var et positivt trekk fra Apples side å ta seg tid til å vurdere utrullingen. EFF sa at den var “fornøyd” med Apples beslutning, men la til at lytting ikke er nok – teknologigiganten bør “droppe planene om å sette en bakdør helt inn i krypteringen.”

“Funksjonene Apple kunngjorde for en måned siden, som har til hensikt å hjelpe til med å beskytte barn, ville skape en infrastruktur som er altfor lett å omdirigere til større overvåking og sensur,” sier gruppen for digitale rettigheter. “Disse funksjonene ville skape en enorm fare for iPhone -brukeres personvern og sikkerhet, og tilbyr autoritære regjeringer et nytt masseovervåkingssystem for å spionere på borgere.”

Tidligere og relatert dekning

Gjør deg klar for iOS 15 og iPadOS 15
Ikke så nye iPhones: Hvordan Apple overbeviser deg om å kjøpe gamle ting
Google håper lystig Apple (men vent, hvor har jeg sett dette før?)

Har du et tips? Ta kontakt trygt via WhatsApp | Signal på +447713 025 499, eller over på Keybase: charlie0

Relaterte emner:

Apple Security TV Data Management CXO Data Centers Charlie Osborne

Av Charlie Osborne for Zero Day | 6. september 2021 – 08:25 GMT (09:25 BST) | Tema: Sikkerhet