Apple zegt dat het scannen van iCloud afhankelijk is van meerdere kinderveiligheidsgroepen om privacy-angsten aan te pakken

0
141

Apple heeft meer details ingevuld over zijn aanstaande plannen om iCloud-foto's te scannen op materiaal van seksueel misbruik van kinderen (CSAM) via iPhones en iPads van gebruikers. Het bedrijf heeft een nieuw artikel uitgebracht waarin wordt ingegaan op de waarborgen waarvan het hoopt dat het het vertrouwen van gebruikers in het initiatief zal vergroten. Dat omvat een regel om alleen afbeeldingen te markeren die zijn gevonden in meerdere kinderveiligheidsdatabases met verschillende overheidsaffiliaties – in theorie voorkomen dat een land niet-CSAM-inhoud aan het systeem toevoegt.

Apple's aankomende iOS en iPadOS releases matchen automatisch de in de VS gevestigde iCloud Photos-accounts met bekende CSAM uit een lijst met afbeeldingshashes samengesteld door kinderveiligheidsgroepen. Hoewel veel bedrijven cloudopslagservices op afstand scannen, heeft de op apparaten gebaseerde strategie van Apple scherpe kritiek gekregen van sommige cryptografie- en privacy-experts.

De paper, genaamd “Security Threat Model Review of Apple's Child Safety Features”, hoopt de privacy- en beveiligingsproblemen rond die uitrol weg te nemen. Het bouwt voort op een Wall Street Journal-interview met Apple-directeur Craig Federighi, die vanmorgen een deel van de informatie schetste.

In het document zegt Apple dat het niet zal vertrouwen op een enkele door de overheid gelieerde database – zoals die van het in de VS gevestigde National Center for Missing and Exploited Children, of NCMEC – om CSAM te identificeren. In plaats daarvan zal het alleen afbeeldingen matchen van ten minste twee groepen met verschillende nationale voorkeuren. Het doel is dat geen enkele regering de macht zou hebben om in het geheim niet-gerelateerde inhoud in te voegen voor censuurdoeleinden, aangezien het niet zou overeenkomen met hashes in een andere database.

A venn-diagram met een cirkel met het label 'Apple Child Safety Organization #1 hash list', een met het label 'Child Safety Organization #2 hash list' en de overlap met het label 'Apple gebruikt alleen de kruisende hashes van twee of meer kinderveiligheidsorganisaties'. Apple

Apple heeft verwezen naar het mogelijke gebruik van meerdere databases voor kinderveiligheid, maar tot op heden had het het overlapsysteem niet uitgelegd. In een gesprek met verslaggevers zei Apple dat het NCMEC alleen een naam geeft omdat het nog geen overeenkomsten heeft gesloten met andere groepen.

De krant bevestigt een detail dat Federighi noemde: in eerste instantie zal Apple een iCloud-account alleen markeren als het 30 afbeeldingen identificeert als CSAM. Deze drempel is gekozen om een ​​”drastische veiligheidsmarge” te bieden om valse positieven te voorkomen, zegt de krant – en aangezien het de prestaties van het systeem in de echte wereld evalueert, “kunnen we de drempel wijzigen.”

Het geeft ook meer informatie over een auditsysteem dat Federighi noemde. Apple's lijst met bekende CSAM-hashes zal wereldwijd in iOS en iPadOS worden ingebakken, hoewel het scansysteem voorlopig alleen in de VS zal draaien. Apple zal een volledige lijst met hashes verstrekken die auditors kunnen controleren aan de hand van kinderveiligheidsdatabases, een andere methode om er zeker van te zijn dat er niet in het geheim meer afbeeldingen overeenkomen. Verder zegt het dat het “alle verzoeken zal weigeren” aan moderators om “iets anders dan CSAM-materiaal” te melden voor accounts die worden gemarkeerd – verwijzend naar de mogelijkheid om dit systeem te gebruiken voor andere soorten bewaking.

Federighi erkende dat Apple vorige week met zijn aankondiging “verwarring” had geïntroduceerd. Maar Apple bleef achter de update zelf staan ​​- het vertelt verslaggevers dat hoewel het nog steeds bezig is met het afronden en herhalen van details, het zijn lanceringsplannen niet heeft gewijzigd als reactie op de kritiek van de afgelopen week.