WhatsApp wird laut WhatsApp-Chef Will Cathcart die neuen Kindersicherheitsmaßnahmen von Apple, die die Verbreitung von Bildern von Kindesmissbrauch stoppen sollen, nicht übernehmen. In einem Twitter-Thread erklärt er seine Überzeugung, dass Apple „Software entwickelt hat, die alle privaten Fotos auf Ihrem Telefon scannen kann“, und dass Apple den falschen Weg eingeschlagen hat, um seine Reaktion auf Material zum sexuellen Missbrauch von Kindern oder CSAM . zu verbessern .
Der am Donnerstag angekündigte Plan von Apple sieht vor, Hashes von Bildern, die in iCloud hochgeladen wurden, zu nehmen und sie mit einer Datenbank zu vergleichen, die Hashes bekannter CSAM-Bilder enthält. Laut Apple ermöglicht dies es, Benutzerdaten verschlüsselt zu halten und die Analyse auf dem Gerät durchzuführen, während Benutzer weiterhin den Behörden gemeldet werden können, wenn festgestellt wird, dass sie Bilder von Kindesmissbrauch teilen. Ein weiterer Aspekt der Kindersicherheitsstrategie von Apple besteht darin, Eltern optional zu warnen, wenn ihr Kind unter 13 Jahren Fotos mit sexuell eindeutigen Inhalten sendet oder ansieht. Ein internes Memo bei Apple räumte ein, dass sich die Leute „über die Auswirkungen“ der Systeme Sorgen machen würden.
Ich habe die Informationen gelesen, die Apple gestern veröffentlicht hat, und ich bin besorgt. Ich denke, das ist der falsche Ansatz und ein Rückschlag für die Privatsphäre der Menschen auf der ganzen Welt.
Die Leute haben gefragt, ob wir dieses System für WhatsApp übernehmen. Die Antwort ist nein.
— Will Cathcart (@wcathcart) 6. August 2021
Cathcart nennt Apples Ansatz „sehr besorgniserregend“ und sagt, dass es Regierungen mit unterschiedlichen Vorstellungen davon, was Art von Bildern sind, erlauben würde und es nicht akzeptabel ist, von Apple zu verlangen, Nicht-CSAM-Bilder zu den Datenbanken hinzuzufügen, mit denen Bilder verglichen werden. Cathcart sagt, dass das WhatsApp-System zur Bekämpfung der Ausbeutung von Kindern, das teilweise Benutzerberichte verwendet, die Verschlüsselung wie die von Apple beibehält und dazu geführt hat, dass das Unternehmen im Jahr 2020 über 400.000 Fälle an das National Center for Missing and Exploited Children meldet. (Apple arbeitet auch mit dem Center for seine CSAM-Erkennungsbemühungen.)
Der Besitzer von WhatsApp, Facebook, hat Gründe, sich aus Datenschutzgründen auf Apple zu stürzen. Apples Änderungen an der Funktionsweise des Anzeigen-Trackings in iOS 14.5 lösten einen Streit zwischen den beiden Unternehmen aus. Facebook kaufte Zeitungsanzeigen und kritisierte die Datenschutzänderungen von Apple als schädlich für kleine Unternehmen. Apple feuerte zurück und sagte, dass die Änderung “einfach erfordert”, dass Benutzer die Wahl haben, ob sie verfolgt werden sollen.
Cathcart nennt Apples Ansatz “sehr besorgniserregend”, und er ist nicht allein
Es ist jedoch nicht nur WhatsApp, das die neuen Maßnahmen zur Kindersicherheit von Apple kritisiert hat. Die Liste der Personen und Organisationen, die Bedenken äußern, umfasst Edward Snowden, die Electronic Frontier Foundation, Professoren und mehr. Wir haben einige dieser Reaktionen hier gesammelt, um einen Überblick über einige der Kritikpunkte zu geben, die gegen die neue Richtlinie von Apple erhoben wurden.
Matthew Green, außerordentlicher Professor an der Johns Hopkins University, hat zurückgewiesen über das Feature, bevor es öffentlich angekündigt wurde. Er twitterte über Apples Pläne und darüber, wie das Hashing-System von Regierungen und böswilligen Akteuren missbraucht werden könnte.
Diese Tools ermöglichen es Apple, Ihre iPhone-Fotos nach Fotos zu durchsuchen, die einem bestimmten Wahrnehmungs-Hash entsprechen, und sie an die Apple-Server zu melden, wenn zu viele angezeigt werden.
– Matthew Green (@matthew_d_green) 5. August 2021
< p id="AKpR2F">Die EFF veröffentlichte eine Erklärung, die Apples Plan sprengte, und nannte ihn mehr oder weniger eine „gründlich dokumentierte, sorgfältig durchdachte und eng begrenzte Hintertür“. Die Pressemitteilung der EFF geht detailliert darauf ein, wie Apples Kindersicherheitsmaßnahmen ihrer Meinung nach von Regierungen missbraucht werden könnten und wie sie die Privatsphäre der Benutzer beeinträchtigen.
Apples Filterung von iMessage und iCloud ist kein schlüpfriger Weg zu Hintertüren, die Sprache unterdrücken und unsere Kommunikation weniger sicher machen. Wir sind bereits da: Dies ist ein fertig gebautes System, das nur auf äußeren Druck wartet, um die kleinste Änderung vorzunehmen. https://t.co/f2nv062t2n
— EFF (@EFF) 5. August 2021
Kendra Albert, Dozentin an der Harvard Cyberlaw Clinic, hat einen Thread zu den potenziellen Gefahren für queere Kinder und Apples anfänglicher Unklarheit bezüglich der Altersgruppen für die Benachrichtigungsfunktion für Eltern veröffentlicht.
< p lang="en" dir="ltr">Die Vorstellung, dass Eltern sichere Menschen sind, mit denen Teenager Gespräche über Sex oder Sexting führen können, ist bewundernswert, aber in vielen Fällen nicht wahr. (Und soweit ich das beurteilen kann, gilt dieses Zeug nicht nur für Kinder unter 13 Jahren.)
— Kendra Albert (@KendraSerra) 5. August 2021
EFF berichtet, dass die iMessage-Nacktheitsbenachrichtigungen nicht an die Eltern gehen, wenn das Kind zwischen 13 und 17 Jahre alt ist aber das ist nirgendwo in der Apple-Dokumentation, die ich finden kann. https://t.co/Ma1BdyqZfW
— Kendra Albert (@KendraSerra) 6. August 2021
Edward Snowden hat den Artikel der Financial Times über das System retweetet und seinen eigenen gegeben Charakterisierung dessen, was Apple tut.
Apple plant, iPhones so zu modifizieren, dass sie ständig nach Schmuggelware suchen:
„Die Idee ist absolut entsetzlich, da sie zu einer verteilten Massenüberwachung unserer Smartphones und Laptops“, sagte Ross Anderson, Professor für Sicherheitstechnik. https://t.co/rS92HR3pUZ
– Edward Snowden (@Snowden) 5. August 2021
Die Politikerin Brianna Wu bezeichnete das System als „die schlechteste Idee in der Apple-Geschichte“. ”
Dies ist die schlechteste Idee in der Geschichte von Apple, und ich sage das nicht leichtfertig.
Es zerstört ihre Glaubwürdigkeit in Bezug auf die Privatsphäre. Es wird von Regierungen missbraucht. Es wird dazu führen, dass schwule Kinder getötet und verleugnet werden. Das ist die schlechteste Idee aller Zeiten. https://t.co/M2EIn2jUK2
— Brianna Wu (@BriannaWu) 5. August 2021
Nur um es festzuhalten: Apples Scan erkennt keine Fotos von Kindesmissbrauch. Es erkennt eine Liste bekannter verbotener Bilder, die zu einer Datenbank hinzugefügt wurden. Dabei handelt es sich zunächst um Bilder von Kindesmissbrauch, die anderswo im Umlauf sind. Welche Bilder im Laufe der Zeit hinzugefügt werden, ist willkürlich. Es weiß nicht, was ein Kind ist.
– SoS (@SwiftOnSecurity) 5. August 2021
Autor Matt Blaze twitterte ebenfalls über die Bedenken, dass die Technologie missbraucht werden könnte indem sie Regierungen überfordern und versuchen, andere Inhalte als CSAM zu verhindern.
Mit anderen Worten, nicht nur die Richtlinie muss außergewöhnlich robust sein, sondern auch die Umsetzung.
— matt blaze (@mattblaze) 6. August 2021
Epic CEO Tim Sweeney kritisierte auch Apple und sagte, dass das Unternehmen „standardmäßig alle Daten in iCloud saugt“. Er versprach auch, weitere Gedanken speziell zum Kindersicherheitssystem von Apple zu teilen.
Es ist grauenhaft, wie Apple standardmäßig die Daten aller in iCloud saugt, die über 15 separaten Optionen ausblendet, um Teile davon in den Einstellungen unter Ihrem Namen zu deaktivieren, und Sie dazu zwingt, ein unerwünschtes E-Mail-Konto zu haben. Apple würde einem Dritten NIEMALS erlauben, eine solche App zu versenden.
– Tim Sweeney (@TimSweeneyEpic) 6. August 2021
Ich werde später einige sehr detaillierte Gedanken zu diesem verwandten Thema teilen.
— Tim Sweeney (@TimSweeneyEpic) 6. August 2021
Nicht jede Reaktion hat war jedoch kritisch. Ashton Kutcher (der sich seit 2011 für die Beendigung des Kindersexhandels einsetzt) bezeichnet Apples Arbeit als „einen großen Schritt vorwärts“ für die Bemühungen, CSAM zu beseitigen.
Ich glaube an Privatsphäre – auch für Kinder, deren sexueller Missbrauch dokumentiert und ohne Zustimmung online verbreitet wird. Diese von @Apple angekündigten Bemühungen sind ein großer Schritt vorwärts im Kampf um die Eliminierung von CSAM aus dem Internet. https://t.co/TQIxHlu4EX
— ashton kutcher (@aplusk) 5. August 2021