Apples umstrittene neue Kinderschutzfunktionen, erklärt

0
150

Apple setzt seinen Ruf auf Datenschutz. Das Unternehmen hat in seinem gesamten Ökosystem für verschlüsseltes Messaging geworben, Einschränkungen bei der Datenerfassung durch mobile Apps gefördert und Strafverfolgungsbehörden bekämpft, die nach Benutzerdatensätzen suchen. In der letzten Woche kämpft Apple jedoch gegen Vorwürfe, dass die bevorstehende iOS- und iPadOS-Version die Privatsphäre der Benutzer schwächen wird.

Die Debatte geht auf eine Ankündigung zurück, die Apple am Donnerstag gemacht hat. Theoretisch ist die Idee ziemlich einfach: Apple möchte sexuellen Missbrauch von Kindern bekämpfen und unternimmt weitere Schritte, um ihn zu finden und zu stoppen. Kritiker sagen jedoch, dass Apples Strategie die Kontrolle der Benutzer über ihre eigenen Telefone schwächen könnte, sodass sie auf Apples Versprechen angewiesen sind, seine Macht nicht zu missbrauchen. Und die Antwort von Apple hat gezeigt, wie kompliziert – und manchmal geradezu verwirrend – das Gespräch wirklich ist.

Was hat Apple letzte Woche angekündigt? Sätze.

Die erste Änderung betrifft Apples Such-App und Siri. Wenn ein Benutzer nach Themen im Zusammenhang mit sexuellem Missbrauch von Kindern sucht, leitet Apple ihn an Ressourcen weiter, um ihn zu melden oder Hilfe bei einer Attraktion zu erhalten. Das wird später in diesem Jahr auf iOS 15, watchOS 8, iPadOS 15 und macOS Monterey eingeführt und ist weitgehend unumstritten.

Die anderen Updates haben jedoch weitaus mehr Gegenreaktionen erzeugt. Einer von ihnen fügt Nachrichten eine Kindersicherungsoption hinzu, verdeckt sexuell eindeutige Bilder für Nutzer unter 18 Jahren und sendet den Eltern eine Benachrichtigung, wenn ein Kind unter 12 Jahren diese Bilder ansieht oder sendet.

Die letzte neue Funktion scannt iCloud Photos-Bilder, um Material zu sexuellem Missbrauch von Kindern oder CSAM zu finden, und meldet es an Apple-Moderatoren – die es an das National Center for Missing and Exploited Children (NCMEC) weiterleiten können. Apple sagt, dass es diese Funktion speziell entwickelt hat, um die Privatsphäre der Benutzer zu schützen, während es illegale Inhalte findet. Kritiker sagen, dass dieselben Designs eine Sicherheits-Hintertür darstellen.

Was macht Apple mit Nachrichten?

Apple führt eine Nachrichtenfunktion ein, die Kinder vor unangemessenen Bildern schützen soll. Wenn die Eltern sich anmelden, scannen Geräte mit Benutzern unter 18 Jahren ein- und ausgehende Bilder mit einem auf Pornografie geschulten Bildklassifizierer nach „sexuell expliziten“ Inhalten. (Apple sagt, dass es technisch nicht auf Nacktheit beschränkt ist, aber dass ein Nacktheitsfilter eine faire Beschreibung ist.) Wenn der Klassifikator diesen Inhalt erkennt, verdeckt er das fragliche Bild und fragt den Benutzer, ob er es wirklich anzeigen oder senden möchte.

Ein Screenshot des Nachrichtenfilters von Apple für sexuell explizite Inhalte. Ein Screenshot von Apples Nachrichtenfilter für sexuell eindeutige Inhalte. Bild: Apfel

Das Update – für Konten, die als Familien in iCloud auf iOS 15, iPadOS 15 und macOS Monterey eingerichtet wurden – enthält auch eine zusätzliche Option. Wenn ein Benutzer diese Warnung durchtippt und er unter 13 Jahre alt ist, kann Messages einen Elternteil benachrichtigen, dass er dies getan hat. Kinder sehen eine Warnmeldung, dass ihre Eltern die Benachrichtigung erhalten, und die Eltern sehen die eigentliche Nachricht nicht. Das System meldet Apple-Moderatoren oder anderen Parteien nichts.

Die Bilder werden auf dem Gerät erkannt, was laut Apple die Privatsphäre schützt. Und Eltern werden benachrichtigt, wenn Kinder tatsächlich bestätigen, dass sie Inhalte für Erwachsene sehen oder senden möchten, und nicht, wenn sie diese nur erhalten. Gleichzeitig haben Kritiker wie die Ausbilderin der Harvard Cyberlaw Clinic, Kendra Albert, Bedenken hinsichtlich der Benachrichtigungen geäußert. Sie sagen, dass sie zum Beispiel queere oder transgender-Kinder outen könnten, indem sie ihre Eltern ermutigen, nach ihnen zu schnüffeln.

Was macht Apples neues Scansystem für iCloud-Fotos?

Das Scansystem von iCloud Photos konzentriert sich darauf, Bilder von sexuellem Missbrauch von Kindern zu finden, deren Besitz illegal ist. Wenn Sie ein iOS- oder iPadOS-Benutzer mit Sitz in den USA sind und Bilder mit iCloud Photos synchronisieren, überprüft Ihr Gerät diese Bilder lokal mit einer Liste bekannter CSAMs. Wenn genügend Übereinstimmungen erkannt werden, werden die Moderatoren von Apple benachrichtigt und die Details der Übereinstimmungen preisgegeben. Wenn ein Moderator das Vorhandensein von CSAM bestätigt, deaktiviert er das Konto und meldet die Bilder den Justizbehörden.

Ist CSAM-Scannen eine neue Idee?< /h2>

Überhaupt nicht. Facebook, Twitter, Reddit und viele andere Unternehmen scannen die Dateien der Benutzer gegen Hash-Bibliotheken, oft mit einem von Microsoft entwickelten Tool namens PhotoDNA. Sie sind außerdem gesetzlich dazu verpflichtet, CSAM dem National Center for Missing and Exploited Children (NCMEC) zu melden, einer gemeinnützigen Organisation, die mit den Strafverfolgungsbehörden zusammenarbeitet.

Apple hat seine Bemühungen bisher jedoch eingeschränkt. Das Unternehmen sagte zuvor, dass es Image-Matching-Technologie verwendet, um die Ausbeutung von Kindern zu finden. In einem Anruf mit Reportern hieß es jedoch, dass nie iCloud-Fotos-Daten gescannt wurden. (Es bestätigte, dass es bereits iCloud Mail gescannt hat, bot jedoch keine weiteren Details zum Scannen anderer Apple-Dienste.)

Unterscheidet sich das neue System von Apple von den Scans anderer Unternehmen?

Ein typischer CSAM-Scan wird remote ausgeführt und untersucht Dateien, die auf einem Server gespeichert sind. Im Gegensatz dazu sucht das Apple-System lokal auf Ihrem iPhone oder iPad nach Übereinstimmungen.

Das System funktioniert wie folgt. Wenn iCloud Photos auf einem Gerät aktiviert ist, verwendet das Gerät ein Tool namens NeuralHash, um diese Bilder in Hashes zu zerlegen – im Grunde Zahlenfolgen, die die einzigartigen Eigenschaften eines Bildes identifizieren, aber nicht rekonstruiert werden können, um das Bild selbst zu enthüllen. Dann vergleicht es diese Hashes mit einer gespeicherten Hashes-Liste von NCMEC, die Millionen von Hashes zusammenstellt, die bekannten CSAM-Inhalten entsprechen. (Wie bereits erwähnt, gibt es keine tatsächlichen Bilder oder Videos.)

Wenn das Apple-System eine Übereinstimmung findet, generiert Ihr Telefon einen „Sicherheitsgutschein“, der in iCloud Photos hochgeladen wird. Jeder Sicherheitsgutschein zeigt an, dass eine Übereinstimmung existiert, alarmiert jedoch keine Moderatoren und verschlüsselt die Details, sodass ein Apple-Mitarbeiter ihn nicht ansehen und sehen kann, welches Foto übereinstimmt. Wenn Ihr Konto jedoch eine bestimmte Anzahl von Gutscheinen generiert, werden alle Gutscheine entschlüsselt und an die menschlichen Moderatoren von Apple gemeldet – die dann die Fotos überprüfen und sehen können, ob sie CSAM enthalten.

Apple betont, dass es sich ausschließlich um Fotos handelt, die Sie mit iCloud synchronisieren, nicht um solche, die nur auf Ihrem Gerät gespeichert sind. Es teilt Reportern mit, dass das Deaktivieren von iCloud-Fotos alle Teile des Scansystems vollständig deaktiviert, einschließlich der lokalen Hash-Generierung. „Wenn Benutzer iCloud Photos nicht verwenden, wird NeuralHash nicht ausgeführt und generiert keine Gutscheine“, sagte Apple-Datenschutzchef Erik Neuenschwander in einem Interview mit TechCrunch.

Apple hat auf dem Gerät verwendet Verarbeitung, um seine Datenschutzinformationen in der Vergangenheit zu stärken. iOS kann viele KI-Analysen durchführen, ohne Ihre Daten beispielsweise an Cloud-Server zu senden, was für Dritte weniger Chancen bedeutet, sie in die Hände zu bekommen.

Aber die Unterscheidung zwischen Lokal und Fern ist hier sehr umstritten, und nach einer Gegenreaktion hat Apple die letzten Tage damit verbracht, äußerst subtile Grenzen zwischen den beiden zu ziehen.

Warum sind einige Leute verärgert über diese Änderungen?

Bevor wir auf die Kritik eingehen, sei gesagt: Apple hat für diese Updates Lob von einigen Datenschutz- und Sicherheitsexperten erhalten, darunter die prominenten Kryptografen und Informatiker Mihir Bellare, David Forsyth und Dan Boneh. „Dieses System wird wahrscheinlich die Wahrscheinlichkeit erheblich erhöhen, dass Personen gefunden werden, die [CSAM] besitzen oder darin Datenverkehr haben“, sagte Forsyth in einer Bestätigung von Apple. “Harmonische Benutzer sollten minimalen bis keinen Datenschutzverlust erfahren.”

Aber auch andere Experten und Interessengruppen haben sich gegen die Änderungen ausgesprochen. Sie sagen, dass die iCloud- und Messages-Updates das gleiche Problem haben: Sie erstellen Überwachungssysteme, die direkt von Ihrem Telefon oder Tablet aus funktionieren. Dies könnte eine Blaupause für das Brechen der sicheren Ende-zu-Ende-Verschlüsselung sein, und selbst wenn ihre Verwendung derzeit begrenzt ist, könnte sie die Tür zu weiteren beunruhigenden Eingriffen in die Privatsphäre öffnen.

An Der offene Brief vom 6. August umreißt die Beschwerden genauer. Hier ist die Beschreibung dessen, was vor sich geht:

Obwohl die Ausbeutung von Kindern ein ernstes Problem ist und die Bemühungen, sie zu bekämpfen, fast fraglos gut gemeint sind, führt Apples Vorschlag eine Hintertür ein, die droht, den grundlegenden Datenschutz für alle Benutzer von Apple-Produkten zu untergraben.

Die von Apple vorgeschlagene Technologie funktioniert durch die kontinuierliche Überwachung von Fotos, die auf dem iPhone, iPad oder Mac des Benutzers gespeichert oder geteilt werden. Ein System erkennt, wenn eine bestimmte Anzahl anstößiger Fotos im iCloud-Speicher erkannt wird und alarmiert die Behörden. Ein anderer benachrichtigt die Eltern eines Kindes, wenn iMessage zum Senden oder Empfangen von Fotos verwendet wird, die ein Algorithmus für maschinelles Lernen als Nacktheit ansieht.

Da beide Prüfungen auf dem Gerät des Benutzers durchgeführt werden, können sie jede Ende-zu-Ende-Verschlüsselung umgehen, die andernfalls die Privatsphäre des Benutzers schützen würde.

Apple hat Einspruch eingelegt die obigen Charakterisierungen, insbesondere der Begriff „Backdoor“ und die Beschreibung der Überwachung von Fotos, die auf dem Gerät eines Benutzers gespeichert sind. Aber wie wir weiter unten erklären werden, fordert es die Benutzer auf, viel Vertrauen in Apple zu setzen, während das Unternehmen auf der ganzen Welt dem Druck der Regierung ausgesetzt ist.

Was ist end-to -Verschlüsselung wieder beenden?

Um es massiv zu vereinfachen, macht die Ende-zu-Ende-Verschlüsselung (oder E2EE) Daten für niemanden außer dem Sender und Empfänger unlesbar; mit anderen Worten, nicht einmal das Unternehmen, das die App betreibt, kann es sehen. Weniger sichere Systeme können immer noch verschlüsselt werden, aber Unternehmen halten möglicherweise Schlüssel zu den Daten, um Dateien zu scannen oder den Strafverfolgungsbehörden Zugriff zu gewähren. Apples iMessages verwendet E2EE; iCloud Photos tut dies, wie viele Cloud-Speicherdienste, nicht.

Obwohl E2EE unglaublich effektiv sein kann, hindert es die Leute nicht unbedingt daran, Daten auf dem Telefon selbst zu sehen. Damit bleibt die Tür für bestimmte Arten der Überwachung offen, einschließlich eines Systems, das Apple jetzt vorgeworfen wird: clientseitiges Scannen.

Was ist clientseitiges Scannen?< /strong>

Die Electronic Frontier Foundation bietet einen detaillierten Überblick über das clientseitige Scannen. Im Grunde geht es darum, Dateien oder Nachrichten in einer App zu analysieren, bevor sie in verschlüsselter Form gesendet werden, oft auf anstößige Inhalte zu prüfen – und dabei den Schutz von E2EE zu umgehen, indem man auf das Gerät selbst abzielt. In einem Telefonat mit The Verge verglich die leitende EFF-Mitarbeiterin Erica Portnoy diese Systeme mit jemandem, der Ihnen über die Schulter schaut, während Sie eine sichere Nachricht auf Ihrem Telefon senden.

Führt Apple clientseitige Scans durch?

Apple bestreitet das vehement. In einem Dokument mit häufig gestellten Fragen heißt es, dass Nachrichten immer noch Ende-zu-Ende-verschlüsselt sind und absolut keine Details zu bestimmten Nachrichteninhalten an Dritte weitergegeben werden, einschließlich der Eltern. “Apple erhält aufgrund dieser Funktion in Nachrichten niemals Zugriff auf die Kommunikation”, verspricht es.

Es lehnt auch das Framing ab, dass es Fotos auf Ihrem Gerät für CSAM scannt. “Diese Funktion gilt konstruktionsbedingt nur für Fotos, die der Benutzer zum Hochladen in die iCloud wählt”, heißt es in den FAQ. „Das System funktioniert nicht für Benutzer, die iCloud-Fotos deaktiviert haben. Diese Funktion funktioniert nicht in Ihrer privaten iPhone-Fotobibliothek auf dem Gerät.“ Das Unternehmen stellte später gegenüber Reportern klar, dass Apple iCloud Photos-Bilder scannen könnte, die über Dienste von Drittanbietern sowie über seine eigenen Apps synchronisiert wurden.

Wie Apple anerkennt, hat iCloud Photos nicht einmal E2EE zum Unterbrechen, sodass diese Scans problemlos auf seinen Servern ausgeführt werden können – genau wie viele andere Unternehmen. Apple argumentiert, dass sein System tatsächlich sicherer ist. Es ist unwahrscheinlich, dass die meisten Benutzer CSAM auf ihrem Telefon haben, und Apple behauptet, dass nur etwa 1 von 1 Billion Konten falsch gekennzeichnet werden könnten. Mit diesem lokalen Scan-System sagt Apple, dass es keine Informationen über die Fotos von anderen preisgibt, was nicht wahr wäre, wenn es seine Server scannen würde.

Sind Apples Argumente? überzeugend?

Nicht viele seiner Kritiker. Wie Ben Thompson bei Stratechery schreibt, geht es nicht darum, ob Apple nur Benachrichtigungen an Eltern sendet oder seine Suche auf bestimmte Inhaltskategorien beschränkt. Es ist so, dass das Unternehmen Daten durchsucht, bevor sie Ihr Telefon verlassen.

Anstatt CSAM-Scans zu iCloud-Fotos in der Cloud hinzuzufügen, die es besitzt und betreibt, kompromittiert Apple die Telefon, das Sie und ich besitzen und betreiben, ohne dass einer von uns ein Mitspracherecht hat. Ja, Sie können iCloud-Fotos deaktivieren, um das Scannen von Apple zu deaktivieren, aber das ist eine Richtlinienentscheidung. es gibt jetzt die Möglichkeit, auf das Telefon eines Benutzers zuzugreifen, und ein iPhone-Benutzer kann nichts tun, um es loszuwerden.

CSAM ist illegal und abscheulich. Aber wie der offene Brief an Apple feststellt, haben viele Länder darauf gedrängt, die Verschlüsselung im Namen der Bekämpfung von Terrorismus, Fehlinformationen und anderen anstößigen Inhalten zu kompromittieren. Nachdem Apple diesen Präzedenzfall geschaffen hat, wird es mit ziemlicher Sicherheit Forderungen nach einer Erweiterung stellen. Und wenn Apple später eine Ende-zu-Ende-Verschlüsselung für iCloud einführt – etwas, das angeblich in Erwägung gezogen, wenn auch nie implementiert wurde –, wird ein möglicher Fahrplan zur Umgehung des E2EE-Schutzes dargelegt.

Apple sagt, dass es alle Anrufe ablehnen wird, um seine Systeme zu missbrauchen. Und es bietet viele Sicherheitsvorkehrungen: die Tatsache, dass Eltern keine Warnungen für ältere Teenager in Nachrichten aktivieren können, dass die Sicherheitsgutscheine von iCloud verschlüsselt sind, dass es einen Schwellenwert für die Benachrichtigung von Moderatoren festlegt und dass die Suche nur in den USA und streng limitiert ist in die Datenbank von NCMEC.

Die CSAM-Erkennungsfunktion von Apple wurde ausschließlich entwickelt, um bekannte CSAM-Bilder zu erkennen, die in iCloud-Fotos gespeichert sind und von Experten von NCMEC und anderen Kindersicherheitsgruppen identifiziert wurden. Wir haben uns schon früher Forderungen gestellt, von der Regierung vorgeschriebene Änderungen zu erstellen und bereitzustellen, die die Privatsphäre der Benutzer beeinträchtigen, und haben diese Forderungen standhaft abgelehnt. Wir werden sie auch in Zukunft ablehnen. Lassen Sie uns klarstellen, dass diese Technologie darauf beschränkt ist, in iCloud gespeicherte CSAM zu erkennen, und wir werden keiner Aufforderung einer Regierung nachkommen, sie zu erweitern.

Das Problem ist, dass Apple die Befugnis hat, diese Sicherheitsvorkehrungen zu ändern. „Das halbe Problem ist, dass das System so einfach zu ändern ist“, sagt Portnoy. Apple hat bei einigen Zusammenstößen mit Regierungen an seinen Waffen festgehalten; Es widersetzte sich bekanntermaßen einer Forderung des Federal Bureau of Investigation nach Daten vom iPhone eines Massenschützen. Aber es wird anderen Anfragen nachgekommen, wie dem lokalen Speichern von chinesischen iCloud-Daten, auch wenn es darauf besteht, dass dies die Benutzersicherheit nicht beeinträchtigt.

Der Professor des Stanford Internet Observatory, Alex Stamos, stellte auch in Frage, wie gut Apple mit der größeren Verschlüsselungsexperten-Community zusammengearbeitet habe, und sagte, dass das Unternehmen es abgelehnt habe, an einer Reihe von Diskussionen über Sicherheit, Datenschutz und Verschlüsselung teilzunehmen. „Mit dieser Ankündigung sind sie einfach in die Balance-Debatte eingestiegen und haben alle ohne öffentliche Konsultation oder Debatte in die entlegensten Ecken gedrängt“, twitterte er.

Wie die Vorteile von Apples neue Funktionen trotzen den Risiken?

Wie immer ist es kompliziert – und es hängt zum Teil davon ab, ob Sie diese Änderung als begrenzte Ausnahme oder als Türöffnung sehen.

Apple hat berechtigte Gründe, seine Kinderschutzbemühungen zu verstärken. Ende 2019 veröffentlichte die New York Times Berichte über eine „Epidemie“ des sexuellen Missbrauchs von Kindern im Internet. Es verprügelte amerikanische Technologieunternehmen, weil sie es versäumt hatten, die Verbreitung von CSAM zu bekämpfen, und in einem späteren Artikel hob NCMEC Apple für seine niedrigen Melderaten im Vergleich zu Kollegen wie Facebook hervor, was die Times teilweise darauf zurückführte, dass das Unternehmen iCloud-Dateien nicht scannte.

In der Zwischenzeit heißt es in internen Apple-Dokumenten, dass iMessage ein Problem mit sexuellen Raubtieren hat. In Dokumenten, die durch den jüngsten Epic-v.-Apple-Prozess enthüllt wurden, listete ein Apple-Abteilungsleiter „Kind-Raubtierpflege“ als eine „aktive Bedrohung“ für die Plattform auf, die nicht ausreichend mit Ressourcen ausgestattet ist. Das Grooming beinhaltet oft das Senden von sexuell expliziten Bildern an Kinder (oder das Bitten von Kindern), genau das zu stören, was Apples neue Nachrichtenfunktion zu stören versucht.

Gleichzeitig hat Apple den Datenschutz selbst als „Menschenrecht“ bezeichnet. Telefone sind intime Geräte voller sensibler Informationen. Mit seinen Nachrichten- und iCloud-Änderungen hat Apple zwei Möglichkeiten aufgezeigt, um Inhalte direkt auf der Hardware zu suchen oder zu analysieren, anstatt Daten an einen Dritten gesendet zu haben, selbst wenn es sich um Daten handelt, deren Senden Sie zugestimmt haben, wie iCloud-Fotos.

Apple hat die Einwände gegen seine Updates zur Kenntnis genommen. Bisher wurden jedoch keine Pläne angezeigt, sie zu ändern oder aufzugeben. Am Freitag räumte ein internes Memo “Missverständnisse” ein, lobte aber die Änderungen. „Was wir heute angekündigt haben, ist das Ergebnis dieser unglaublichen Zusammenarbeit, die Tools zum Schutz von Kindern liefert, aber auch Apples tiefes Engagement für die Privatsphäre der Benutzer aufrechterhält“, heißt es darin. „Wir wissen, dass einige Leute Missverständnisse haben, und nicht wenige sind besorgt über die Auswirkungen, aber wir werden die Funktionen weiterhin erklären und detailliert beschreiben, damit die Leute verstehen, was wir entwickelt haben.“