Apple enthüllt neue Bemühungen zur Bekämpfung von Bildern von Kindesmissbrauch

0
189

In einem Briefing am Donnerstagnachmittag bestätigte Apple zuvor gemeldete Pläne zum Einsatz neuer Technologien in iOS, macOS, watchOS und iMessage, die potenzielle Bilder von Kindesmissbrauch erkennen, aber wichtige Details aus dem laufenden Projekt wurden klargestellt. Für Geräte in den USA bieten neue Versionen von iOS und iPadOS, die diesen Herbst eingeführt werden, „neue Anwendungen der Kryptographie, um die Verbreitung von CSAM [Material zum sexuellen Missbrauch von Kindern] online zu begrenzen und gleichzeitig die Privatsphäre der Benutzer zu schützen“.

Das Projekt wird auch auf einer neuen Seite „Kindersicherheit“ auf der Apple-Website detailliert beschrieben. Die invasivste und potenziell umstrittenste Implementierung ist das System, das Scans auf dem Gerät durchführt, bevor ein Bild in iCloud gesichert wird. Aus der Beschreibung geht hervor, dass das Scannen erst erfolgt, wenn eine Datei in iCloud gesichert wird, und Apple erhält nur dann Daten über eine Übereinstimmung, wenn die kryptografischen Gutscheine (zusammen mit dem Bild in iCloud hochgeladen) für ein bestimmtes Konto einen Schwellenwert für die Übereinstimmung mit bekanntem CSAM erfüllen .

Apple hat mehrere Einschränkungen beschrieben, die zum Schutz der Privatsphäre enthalten sind.

Apple verwendet seit Jahren Hash-Systeme, um per E-Mail gesendete Bilder von Kindesmissbrauch zu scannen, im Einklang mit ähnlichen Systemen bei Gmail und anderen Cloud-E-Mail-Anbietern. Das heute angekündigte Programm wird dieselben Scans auf in iCloud Photos gespeicherte Benutzerbilder anwenden, auch wenn die Bilder niemals an einen anderen Benutzer gesendet oder anderweitig geteilt werden.

In einem zusammen mit dem Briefing bereitgestellten PDF begründete Apple seine Schritte zum Scannen von Bildern mit der Beschreibung mehrerer Einschränkungen, die zum Schutz der Privatsphäre enthalten sind:

Apple erfährt nichts über Bilder, die stimmen nicht mit der bekannten CSAM

Datenbank überein.

Apple kann erst auf Metadaten oder visuelle Derivate für übereinstimmende CSAM-Bilder zugreifen

Der Schwellenwert für Übereinstimmungen wurde für ein iCloud-Fotos-Konto überschritten.

Das Risiko, dass das System ein Konto fälschlicherweise kennzeichnet, ist äußerst gering. Darüber hinaus

Apple überprüft alle an NCMEC gesendeten Berichte manuell, um die Genauigkeit der Berichte sicherzustellen.

Benutzer können nicht auf die Datenbank bekannter CSAM-Bilder zugreifen oder sie anzeigen.

Benutzer können nicht erkennen, welche Bilder vom System als CSAM gekennzeichnet wurden

Die neuen Details bauen auf Bedenken auf, die Anfang dieser Woche durchgesickert sind, fügen jedoch auch eine Reihe von Sicherheitsvorkehrungen hinzu, die vor den Datenschutzrisiken eines solchen Systems schützen sollen. Insbesondere stellt das Schwellenwertsystem sicher, dass einzelne Fehler keine Warnungen generieren, sodass Apple eine Fehlerrate von einer Fehlwarnung pro Billion Benutzer pro Jahr anvisieren kann. Das Hashing-System ist auch auf Material beschränkt, das vom National Center for Missing and Exploited Children (NCMEC) gekennzeichnet wurde, und auf Bilder, die auf iCloud Photos hochgeladen wurden. Sobald eine Warnung generiert wurde, wird sie von Apple und NCMEC überprüft, bevor die Strafverfolgungsbehörden alarmiert werden. Dies bietet einen zusätzlichen Schutz davor, dass das System verwendet wird, um Nicht-CSAM-Inhalte zu erkennen.

Apple gab technische Bewertungen des Systems von drei unabhängigen Kryptografen (PDFs 1, 2 und 3) in Auftrag, die es für mathematisch robust hielten. „Meiner Meinung nach wird dieses System wahrscheinlich die Wahrscheinlichkeit erheblich erhöhen, dass Personen gefunden werden, die solche Bilder besitzen oder damit handeln (schädliche Benutzer); Dies sollte zum Schutz von Kindern beitragen“, sagte Professor David Forsyth, Lehrstuhlinhaber für Informatik an der University of Illinois, in einer der Bewertungen. „Die Genauigkeit des Abgleichsystems in Kombination mit dem Schwellenwert macht es sehr unwahrscheinlich, dass Bilder, die nicht bekannte CSAM-Bilder sind, aufgedeckt werden.“

Allerdings sagte Apple anderen Kinderschutzgruppen wahrscheinlich als Hash-Quellen hinzugefügt, wenn das Programm erweitert wird, und das Unternehmen hat sich nicht verpflichtet, die Liste der Partner in Zukunft öffentlich zugänglich zu machen. Dies wird wahrscheinlich die Befürchtungen verstärken, wie das System von der chinesischen Regierung ausgenutzt werden könnte, die seit langem einen besseren Zugriff auf iPhone-Benutzerdaten im Land anstrebt.

Beispielnachrichten Warnung für Kinder und Eltern, wenn sexuell eindeutige Fotos erkannt werden Beispielnachrichten zur Warnung von Kindern und Eltern, wenn sexuell eindeutige Fotos entdeckt werden. Foto: Apple

Neben den neuen Maßnahmen in iCloud Photos hat Apple zwei weitere Systeme hinzugefügt, um junge iPhone-Besitzer vor Kindesmissbrauch zu schützen. Die Messages-App hat bereits auf dem Gerät Bildanhänge für Kinderkonten gescannt, um potenziell sexuell eindeutige Inhalte zu erkennen. Nach der Erkennung wird der Inhalt unscharf und eine Warnung wird angezeigt. Eine neue Einstellung, die Eltern in ihren iCloud-Familienkonten aktivieren können, löst eine Nachricht aus, die dem Kind mitteilt, dass seine Eltern eine Nachricht darüber erhalten, wenn es das erkannte Bild anzeigt (eingehend) oder sendet (ausgehend).

Apple aktualisiert auch, wie Siri und die Such-App auf Anfragen zu Bildern von Kindesmissbrauch reagieren. Unter dem neuen System „erklären die Apps den Nutzern, dass das Interesse an diesem Thema schädlich und problematisch ist und stellen Ressourcen von Partnern zur Verfügung, um Hilfe bei diesem Problem zu erhalten.“