Apple verzögert seine im letzten Monat angekündigten Kinderschutzfunktionen, darunter eine umstrittene Funktion, die die Fotos von Benutzern auf Material zum sexuellen Missbrauch von Kindern (CSAM) scannt, nachdem heftig kritisiert wurde, dass die Änderungen die Privatsphäre der Benutzer beeinträchtigen könnten. Die Änderungen sollten noch in diesem Jahr eingeführt werden.
“Letzten Monat haben wir Pläne für Funktionen angekündigt, die dazu beitragen sollen, Kinder vor Raubtieren zu schützen, die Kommunikationsmittel verwenden, um sie zu rekrutieren und auszubeuten, und die Verbreitung von Material über sexuellen Missbrauch von Kindern zu begrenzen”, sagte Apple in einer Erklärung gegenüber The Verge. „Basierend auf dem Feedback von Kunden, Interessengruppen, Forschern und anderen haben wir uns entschieden, uns in den kommenden Monaten zusätzliche Zeit zu nehmen, um Input zu sammeln und Verbesserungen vorzunehmen, bevor wir diese äußerst wichtigen Kindersicherheitsfunktionen veröffentlichen.“
Es ist eine große Umkehrung < p id="Pt0z5g">Apples ursprüngliche Pressemitteilung zu den Änderungen, die die Verbreitung von Material zum sexuellen Missbrauch von Kindern (CSAM) reduzieren sollten, enthält eine ähnliche Aussage oben auf der Seite. Diese Veröffentlichung detailliert drei wichtige Änderungen in Arbeit. Eine Änderung an Search und Siri würde auf Ressourcen verweisen, um CSAM zu verhindern, wenn ein Benutzer nach entsprechenden Informationen sucht.
Die anderen beiden Änderungen wurden genauer unter die Lupe genommen. Man warnt Eltern, wenn ihre Kinder sexuell eindeutige Fotos erhalten oder senden, und verwischt diese Bilder für Kinder. Der andere hätte gescannte Bilder, die in den iCloud-Fotos eines Benutzers für CSAM gespeichert sind, und sie an Apple-Moderatoren gemeldet, die die Berichte dann an das National Center for Missing and Exploited Children oder NCMEC weiterleiten könnten.
Verwandte
Die umstrittenen neuen Kinderschutzfunktionen von Apple, erklärt
Apple hat das iCloud Photo-Scansystem ausführlich beschrieben, um zu beweisen, dass es die Privatsphäre der Benutzer nicht schwächt. Kurz gesagt, es scannte Fotos, die in iCloud Photos auf Ihrem iOS-Gerät gespeichert sind, und bewertete diese Fotos zusammen mit einer Datenbank mit bekannten CSAM-Bild-Hashes von NCMEC und anderen Kindersicherheitsorganisationen.
Dennoch kritisierten viele Datenschutz- und Sicherheitsexperten das Unternehmen heftig für das neue System und argumentierten, dass es ein Überwachungssystem auf dem Gerät hätte erstellen können und dass es das Vertrauen der Benutzer verletzt habe Apple für den Schutz der Privatsphäre auf dem Gerät.
Die Electronic Frontier Foundation sagte in einer Erklärung vom 5. August, dass das neue System, egal wie gut es gemeint ist, “die wichtigsten Versprechen der Verschlüsselung des Messengers selbst brechen” würde und öffnen Sie die Tür für umfassenderen Missbrauch.“
„Apple kompromittiert das Telefon, das Sie und ich besitzen und betreiben“, sagte Ben Thompson von Stratechery in seiner eigenen Kritik, „ohne irgendwelche von Wir haben ein Mitspracherecht.“