Craig Federighi sier Apples skanning av barnesikkerhet vil ha “flere nivåer av kontrollbarhet”

0
115

Apple -sjef Craig Federighi sier at iCloud Photos planer om å søke etter seksuelt misbruk av barn (eller CSAM) vil inneholde “flere nivåer av overvåkingsevne.” I et intervju med The Wall Street Journal tilbød Federighi – Apples senior visepresident for programvareteknikk – nye detaljer om sine kontroversielle barns sikkerhetstiltak. Det inkluderer en påstand om at iPad og iPhone-skanning på enhetsnivå vil hjelpe sikkerhetseksperter med å bekrefte at Apple bruker systemet på en ansvarlig måte.

Som mange selskaper med skylagringstjenester, vil Apple sjekke iCloud Photos -bilder mot en liste fra National Center for Missing and Exploited Children (NCMEC), på jakt etter eksakte treff med kjente CSAM -bilder. Men i motsetning til mange tjenester, vil den kjøre søk på enheten, ikke helt eksternt. «Tenk deg at noen skannet bilder i skyen. Vel, hvem vet hva det blir skannet etter? ” Sa Federighi og refererte til eksterne skanninger. “I vårt tilfelle sendes databasen på enheten. Folk kan se, og det er et enkelt bilde i alle land. ”

Federighi utdypet litt om hvordan dette kan gi folk tillit Apple utvider ikke databasen sterkt til å inkludere materiale i tillegg til ulovlig CSAM , spesielt i land med restriktive sensureringspolicyer.

“Vi sørger for at du ikke trenger å stole på en enhet, eller til og med ett land”

“Vi sender den samme programvaren i Kina med den samme databasen vi sender i Amerika, som vi sender i Europa. Hvis noen skulle komme til Apple [med en forespørsel om å søke etter data utover CSAM], ville Apple si nei. Men la oss si at du ikke er trygg. Du vil ikke bare stole på at Apple sier nei. Du vil være sikker på at Apple ikke kunne komme unna med det hvis vi sa ja, sier han til Journal. “Det er flere nivåer av kontrollerbarhet, og derfor sørger vi for at du ikke trenger å stole på en enhet, eller til og med et enkelt land, så langt som hvilke bilder som er en del av denne prosessen.”

< p id = "Y7s92c">Apple har tidligere sagt at det bare ruller ut systemet i USA, og at det vil vurdere å lansere i andre land fra sak til sak. Selskapet bekreftet overfor The Verge at Apple vil sende hash -databasen for kjent CSAM på operativsystemet i alle land, men den vil bare bli brukt til skanning i USA. Tidsskriftet presiserer videre at det vil være en uavhengig revisor som kan verifisere bildene som er involvert.

Federighi tilbød også flere detaljer om når skanningssystemet vil varsle en Apple -moderator om potensielt ulovlig innhold. Apple har tidligere sagt at en enkelt kamp ikke vil utløse et rødt flagg – et tiltak som skal forhindre falske positiver. I stedet genererer systemet “sikkerhetskuponger” for hver kamp og varsler Apple hvis tallet når en viss terskel. Apple har nektet å offentliggjøre den eksakte terskelen, og sa at dette kan la misbrukere unngå å oppdage. Men Federighi sier at det er “i størrelsesorden 30 kjente barnepornografiske bilder.” Men mange har kritisert Apples brå utrulling og mangel på klarhet i hvordan systemet fungerte. I intervjuet med Journal anerkjente Federighi forvirringen. “Det er virkelig klart at mange meldinger ble blandet ganske dårlig når det gjelder hvordan ting ble forstått,” sa han.