Apple hat eine Webseite zu seinen Kindersicherheitsfunktionen aktualisiert, um alle Verweise auf die umstrittene Erkennungsfunktion für sexuellen Missbrauch von Kindern (CSAM) zu entfernen, die erstmals im August angekündigt wurde. Die von MacRumors entdeckte Änderung scheint zwischen dem 10. und 13. Dezember stattgefunden zu haben. Aber trotz der Änderung seiner Website sagt das Unternehmen, dass sich seine Pläne für die Funktion nicht geändert haben.
Zwei der drei Sicherheitsfunktionen, die Anfang dieser Woche mit iOS 15.2 veröffentlicht wurden, sind immer noch auf der Seite mit dem Titel „Erweiterter Schutz für Kinder“ vorhanden. Verweise auf die umstrittenere CSAM-Erkennung, deren Start sich aufgrund der Gegenreaktion von Datenschutzbeauftragten verzögerte, wurden jedoch entfernt.
Als er um einen Kommentar gebeten wurde, sagte Apple-Sprecher Shane Bauer, dass sich die Position des Unternehmens seit September nicht geändert habe, als es erstmals angekündigt hatte, den Start der CSAM-Erkennung zu verschieben. „Basierend auf dem Feedback von Kunden, Interessengruppen, Forschern und anderen haben wir uns entschieden, uns in den kommenden Monaten zusätzliche Zeit zu nehmen, um Input zu sammeln und Verbesserungen vorzunehmen, bevor wir diese entscheidend wichtigen Funktionen zur Kindersicherheit veröffentlichen“, heißt es in der Erklärung des Unternehmens vom September.
Entscheidend ist, dass die Aussage von Apple nicht besagt, dass die Funktion vollständig eingestellt wurde. Dokumente, die die Funktionsweise der Funktionen beschreiben, sind noch immer auf der Apple-Website verfügbar.
Verwandte
Die umstrittenen neuen Kinderschutzfunktionen von Apple, erklärt
Die CSAM-Erkennungsfunktion von Apple war bei ihrer Ankündigung umstritten, da sie Hashes von iCloud-Fotos nimmt und sie mit einer Datenbank mit Hashes bekannter Bilder von sexuellem Missbrauch von Kindern vergleicht. Apple behauptet, dass dieser Ansatz es ermöglicht, Benutzer den Behörden zu melden, wenn bekannt ist, dass sie Bilder von Kindesmissbrauch hochladen, ohne die Privatsphäre seiner Kunden im Allgemeinen zu beeinträchtigen. Es heißt auch, dass die Verschlüsselung der Benutzerdaten nicht betroffen ist und dass die Analyse auf dem Gerät ausgeführt wird.
Kritiker argumentieren jedoch, dass Apples System die Gefahr besteht, die Ende-zu-Ende-Verschlüsselung von Apple zu untergraben. Einige bezeichneten das System als „Hintertür“, mit der Regierungen auf der ganzen Welt Apple dazu bringen könnten, Inhalte über CSAM hinaus einzubinden. Apple seinerseits hat erklärt, dass es über CSAM hinaus “keinen Antrag einer Regierung auf Erweiterung” erfüllen wird.
Obwohl die CSAM-Erkennungsfunktion noch kein neues Startdatum erhalten hat, Apple hat zwei der anderen im August angekündigten Kinderschutzfunktionen veröffentlicht. Eine warnt Kinder, wenn sie Bilder mit Nacktheit in Nachrichten erhalten, während die zweite zusätzliche Informationen liefert, wenn sie über Siri, Spotlight oder Safari Search nach Begriffen im Zusammenhang mit der Ausbeutung von Kindern suchen. Beide wurden mit iOS 15.2 eingeführt, das Anfang dieser Woche veröffentlicht wurde und Apple anscheinend dazu veranlasst hat, seine Webseite zu aktualisieren.