Apple hat weitere Details zu seinen bevorstehenden Plänen bekannt gegeben, iCloud-Fotos über die iPhones und iPads der Nutzer auf Material zum sexuellen Missbrauch von Kindern (CSAM) zu scannen. Das Unternehmen hat ein neues Papier veröffentlicht, in dem es um die Sicherheitsvorkehrungen geht, von denen es hofft, dass sie das Vertrauen der Benutzer in die Initiative stärken. Dazu gehört eine Regel, nur Bilder zu kennzeichnen, die in mehreren Kindersicherheitsdatenbanken mit unterschiedlichen Regierungszugehörigkeiten gefunden wurden, wodurch theoretisch ein Land daran gehindert wird, dem System Nicht-CSAM-Inhalte hinzuzufügen.
Apples kommendes iOS und iPadOS Versionen werden automatisch iCloud Photos-Konten mit Sitz in den USA mit bekannten CSAM aus einer Liste von Bild-Hashes abgleichen, die von Kindersicherheitsgruppen zusammengestellt wurde. Während viele Unternehmen Cloud-Speicherdienste aus der Ferne scannen, wurde die gerätebasierte Strategie von Apple von einigen Kryptographie- und Datenschutzexperten scharf kritisiert.
Das Papier mit dem Titel „Security Threat Model Review of Apple’s Child Safety Features“ hofft, Datenschutz- und Sicherheitsbedenken im Zusammenhang mit dieser Einführung zu zerstreuen. Es baut auf einem Interview des Wall Street Journal mit Apple-Chef Craig Federighi auf, der heute Morgen einige der Informationen umriss.
In dem Dokument sagt Apple, dass es sich nicht auf eine einzige regierungsnahe Datenbank – wie die des in den USA ansässigen National Center for Missing and Exploited Children oder NCMEC – verlassen wird, um CSAM zu identifizieren. Stattdessen werden nur Bilder von mindestens zwei Gruppen mit unterschiedlicher nationaler Zugehörigkeit abgeglichen. Das Ziel ist, dass keine einzelne Regierung die Macht haben könnte, heimlich unzusammenhängende Inhalte zu Zensurzwecken einzufügen, da sie nicht mit Hashes in anderen Datenbanken übereinstimmen würden.
:no_upscale()/cdn.vox-cdn .com/uploads/chorus_asset/file/22781290/Screen_Shot_2021_08_13_at_3.35.42_PM.png)
Apple hat auf die potenzielle Verwendung mehrerer Datenbanken zur Kindersicherheit hingewiesen, aber bis heute das Überlappungssystem nicht erklärt. In einem Anruf mit Reportern sagte Apple, dass es NCMEC nur benennt, weil es noch keine Vereinbarungen mit anderen Gruppen getroffen hat.
Das Papier bestätigt ein von Federighi erwähntes Detail: Apple wird einen iCloud-Account zunächst nur kennzeichnen, wenn es 30 Bilder als CSAM identifiziert. Dieser Schwellenwert wurde gewählt, um eine „drastische Sicherheitsmarge“ zu bieten, um Fehlalarme zu vermeiden, heißt es in dem Papier – und da es die Leistung des Systems in der realen Welt bewertet, „können wir den Schwellenwert ändern“.
Es enthält auch weitere Informationen zu einem Auditing-System, das Federighi erwähnte. Apples Liste bekannter CSAM-Hashes wird weltweit in iOS und iPadOS eingespielt, obwohl das Scansystem vorerst nur in den USA läuft. Apple wird eine vollständige Liste von Hashes bereitstellen, die Auditoren mit Datenbanken zur Kindersicherheit vergleichen können, eine weitere Methode, um sicherzustellen, dass nicht heimlich mehr Bilder abgeglichen werden. Darüber hinaus heißt es, dass es „alle Anfragen ablehnen“ wird, wenn Moderatoren „alles andere als CSAM-Materialien“ für Konten melden, die markiert werden – was auf die Möglichkeit verweist, dieses System für andere Arten der Überwachung zu verwenden.
Federighi räumte ein, dass Apple mit seiner Ankündigung letzte Woche “Verwirrung” eingeführt habe. Aber Apple hat zu dem Update selbst gestanden – es teilt Reportern mit, dass es seine Startpläne als Reaktion auf die Kritik der letzten Woche nicht geändert hat, obwohl es noch an der Finalisierung und Iteration von Details ist.