Apple VP bestätigt Bedenken hinsichtlich der neuen Scanfunktion im internen Memo

0
148

Apples bevorstehende Funktion, die iOS-Geräte nach Bildern von Kindesmissbrauch durchsucht, ist eine “wichtige Mission”, schrieb ein Software-Vizepräsident des Unternehmens in einem internen Memo. Das Memo von Sebastian Marineau-Mes, das erstmals von 9to5 Mac berichtet wurde, bestätigt, dass die neuen Schutzmaßnahmen einige Leute „besorgt über die Auswirkungen“ haben, dass das Unternehmen jedoch „das tiefe Engagement von Apple für die Privatsphäre der Benutzer beibehalten wird“.

Als Teil seines erweiterten Schutzes für Kinder plant Apple, Bilder auf iPhones und anderen Geräten zu scannen, bevor sie in iCloud hochgeladen werden. Wenn es ein Bild findet, das mit einem in der Datenbank des National Center for Missing and Exploited Children (NCMEC) übereinstimmt, überprüft ein Mitarbeiter bei Apple das Bild, um zu bestätigen, ob es Kinderpornografie enthält. Wenn es bestätigt wird, wird NCMEC benachrichtigt und das Konto des Benutzers wird deaktiviert.

Die Ankündigung löste Bedenken bei Datenschutzbeauftragten aus, die in Frage stellten, wie Apple verhindern könnte, dass das System von bösartigen Akteuren ausgenutzt wird. Die Electronic Frontier Foundation sagte in einer Erklärung, dass „es unmöglich ist, ein clientseitiges Scansystem zu bauen, das nur für sexuell eindeutige Bilder verwendet werden kann, die von Kindern gesendet oder empfangen werden“ und dass das System, egal wie gut es gemeint ist, „Schlüsselversprechen brechen“ wird der Verschlüsselung des Messengers selbst und öffnet die Tür zu umfassenderen Missbräuchen.“

Laut 9to5Mac schrieb Marineau-Mes in dem Memo, dass das Projekt ein „tiefes funktionsübergreifendes Engagement“ in der gesamten Unternehmen, das “Tools zum Schutz von Kindern bereitstellt, aber auch Apples tiefes Engagement für die Privatsphäre der Benutzer aufrechterhält.”

Apple hat am Freitag nicht sofort auf eine Anfrage nach Kommentaren geantwortet.