Apple har sat planer om at scanne enheder efter børnemishandling og udnyttelsesmateriale på pause, efter at værktøjet vakte bekymring blandt brugere og fortrolighedsgrupper.
De nye sikkerhedsfunktioner blev annonceret i sidste måned og var beregnet til at blive inkluderet i iOS 15, iPadOS 15, watchOS 8 og macOS Monterey. Den første var en funktion til overvågning af meddelelsesprogrammet, hvor maskinindlæring på klientsiden er implementeret til at scanne og advare, når seksuelt eksplicitte billeder sendes, hvilket kræver input fra brugeren, om de vil se materialet eller ej.
“Som en ekstra sikkerhedsforanstaltning kan barnet også få at vide, at forældrene vil få en besked, hvis de ser det, for at sikre, at de er i sikkerhed,” forklarede virksomheden.
Den anden batch af ændringer påvirkede Siri og Search, med opdateringer inkluderet for at give forældre og børn yderligere oplysninger for at advare dem, når de faldt i “usikre” situationer, samt at “gribe ind”, hvis en søgning efter materiale om seksuelt misbrug af børn (CSAM) ) blev udført af en bruger.
Det tredje var et CSAM-scanningsværktøj, der blev udråbt som et middel til at “beskytte børn mod rovdyr, der bruger kommunikationsværktøjer til at rekruttere og udnytte dem.”
Ifølge iPhone- og iPad -producenten ville værktøjet bruge kryptografi “til at hjælpe med at begrænse spredningen af CSAM online” og samtidig tage højde for brugernes privatliv. Billeder ville ikke blive scannet i skyen, snarere ville matchning på enheden blive udført, hvor billeder ville blive sammenlignet med hash, der er knyttet til kendte CSAM-billeder.
“CSAM -registrering vil hjælpe Apple med at levere værdifuld information til retshåndhævelse om samlinger af CSAM i iCloud Photos,” sagde virksomheden. “Dette program er ambitiøst, og beskyttelse af børn er et vigtigt ansvar. Denne indsats vil udvikle sig og udvide sig over tid.”
I et teknisk papir (.PDF), der beskriver værktøjet, sagde Apple:
“CSAM Detection gør det muligt for Apple nøjagtigt at identificere og rapportere iCloud -brugere, der gemmer kendt CSAM i deres iCloud Photos -konti. Apple -serveres flag konti, der overstiger et tærskelantal billeder, der matcher en kendt database med CSAM -billed hash, så Apple kan levere relevante oplysninger til National Center for Missing and Exploited Children (NCMEC). Denne proces er sikker og er udtrykkeligt designet til at bevare brugernes privatliv. “
Scanneren opnåede imidlertid kontroverser online, hvilket fik kritik fra fortalere for fortrolige oplysninger og kryptografieksperter.
Lektor ved Johns Hopkins Information Security Institute og kryptografiekspert Matthew Green sagde, at implementering af kryptografi for at scanne efter billeder, der indeholder specifikke hash kunne blive “en vigtig ingrediens i tilføjelse af overvågning til krypterede meddelelsessystemer.”
Selvom det er skabt med gode hensigter, kan et sådant værktøj blive et magtfuldt våben i de forkerte hænder, f.eks. Autoritære regeringers og diktaturers.
Electronic Frontier Foundation smadrede også planerne og lancerede et andragende for at lægge pres på Apple for at gå tilbage. I skrivende stund har anbringendet over 27.000 underskrifter. Fight for the Future og OpenMedia lancerede også lignende andragender.
Den 3. september sagde Apple, at udrulningen er standset for at tage “ekstra tid” til at analysere værktøjerne og deres potentielle fremtidige indvirkning.
“Tidligere annoncerede vi planer om funktioner til at beskytte børn mod rovdyr, der bruger kommunikationsværktøjer til at rekruttere og udnytte dem og til at begrænse spredningen af materiale til seksuelt misbrug af børn,” sagde Apple. “Baseret på feedback fra kunder, fortalergrupper, forskere og andre har vi besluttet at tage ekstra tid i løbet af de kommende måneder til at indsamle input og foretage forbedringer, før vi frigiver disse kritisk vigtige børnesikkerhedsfunktioner.”
Green sagde, at det var et positivt træk fra Apples side at tage sig tid til at overveje udrulningen. EFF sagde, at den var “tilfreds” med Apples beslutning, men tilføjede, at lytte ikke er nok – teknologigiganten bør “droppe sine planer om at sætte en bagdør helt ind i sin kryptering.”
“De funktioner, som Apple annoncerede for en måned siden, som har til hensigt at hjælpe med at beskytte børn, ville skabe en infrastruktur, der er alt for let at omdirigere til større overvågning og censur,” siger gruppen for digitale rettigheder. “Disse funktioner ville skabe en enorm fare for iPhone -brugeres privatliv og sikkerhed og tilbyde autoritære regeringer et nyt masseovervågningssystem til at spionere på borgere.”
Tidligere og relateret dækning
Gør dig klar til iOS 15 og iPadOS 15
Ikke så nye iPhones: Sådan overbeviser Apple dig om at købe gamle ting
Google håner lystigt Apple (men vent, hvor har jeg set dette før?)
Har du et tip? Kom sikkert i kontakt via WhatsApp | Signal på +447713 025 499 eller derover på Keybase: charlie0
Relaterede emner:
Apple Security TV Data Management CXO Data Centers