WhatsApp zal de nieuwe maatregelen voor kinderveiligheid van Apple niet overnemen, bedoeld om de verspreiding van beelden van kindermisbruik tegen te gaan, aldus Will Cathcart, hoofd van WhatsApp. In een Twitter-thread legt hij zijn overtuiging uit dat Apple “software heeft gebouwd die alle privéfoto's op je telefoon kan scannen”, en zei dat Apple de verkeerde weg is ingeslagen door te proberen zijn reactie op materiaal van seksueel misbruik van kinderen of CSAM te verbeteren. .
Het plan van Apple, dat donderdag werd aangekondigd, omvat het nemen van hashes van afbeeldingen die naar iCloud zijn geüpload en deze te vergelijken met een database die hashes van bekende CSAM-afbeeldingen bevat. Volgens Apple stelt dit het in staat om gebruikersgegevens versleuteld te houden en de analyse op het apparaat uit te voeren, terwijl het gebruikers nog steeds aan de autoriteiten kan rapporteren als blijkt dat ze beelden van kindermisbruik delen. Een ander onderdeel van de Child Safety-strategie van Apple is dat ouders optioneel worden gewaarschuwd als hun kind jonger dan 13 jaar foto's met seksueel expliciete inhoud verzendt of bekijkt. Een interne memo bij Apple erkende dat mensen “zich zorgen zouden maken over de implicaties” van de systemen.
Ik heb de informatie gelezen die Apple gisteren naar buiten bracht en ik maak me zorgen. Ik denk dat dit de verkeerde benadering is en een tegenslag voor de privacy van mensen over de hele wereld.
Mensen hebben gevraagd of we dit systeem voor WhatsApp willen gebruiken. Het antwoord is nee.
— Will Cathcart (@wcathcart) 6 augustus 2021
Cathcart noemt de aanpak van Apple “zeer zorgwekkend”, en zegt dat het regeringen met verschillende ideeën over wat voor soort afbeeldingen zijn en niet acceptabel zijn, zou toestaan om Apple te verzoeken niet-CSAM-afbeeldingen toe te voegen aan de databases waarmee ze afbeeldingen vergelijkt. Cathcart zegt dat WhatsApp's systeem voor de bestrijding van kinderuitbuiting, dat gedeeltelijk gebruikmaakt van gebruikersrapporten, encryptie behoudt zoals dat van Apple en ertoe heeft geleid dat het bedrijf in 2020 meer dan 400.000 gevallen rapporteerde aan het National Center for Missing and Exploited Children (Apple werkt ook samen met het Center for zijn CSAM-detectiepogingen.)
De eigenaar van WhatsApp, Facebook, heeft redenen om Apple aan te vallen vanwege privacykwesties. Apple's wijzigingen in de manier waarop ad-tracking werkt in iOS 14.5 begonnen een gevecht tussen de twee bedrijven, waarbij Facebook krantenadvertenties kocht waarin Apple's privacywijzigingen werden bekritiseerd als schadelijk voor kleine bedrijven. Apple reageerde terug en zei dat de verandering “eenvoudigweg vereist” dat gebruikers de keuze krijgen om te worden gevolgd.
Cathcart noemt de aanpak van Apple “zeer zorgwekkend”, en hij is niet de enige
Het is echter niet alleen WhatsApp die de nieuwe maatregelen voor kinderveiligheid van Apple heeft bekritiseerd. De lijst met mensen en organisaties die hun bezorgdheid uiten, omvat Edward Snowden, de Electronic Frontier Foundation, professoren en meer. We hebben een aantal van die reacties hier verzameld om te fungeren als een overzicht van enkele van de kritieken op het nieuwe beleid van Apple.
Matthew Green, een universitair hoofddocent aan de Johns Hopkins University, drong terug over de functie voordat deze publiekelijk werd aangekondigd. Hij tweette over de plannen van Apple en over hoe het hashing-systeem misbruikt zou kunnen worden door overheden en kwaadwillende actoren.
Met deze tools kan Apple je iPhone-foto's scannen op foto's die overeenkomen met een specifieke perceptuele hash, en deze rapporteren aan Apple-servers als er te veel verschijnen.
— Matthew Green (@matthew_d_green) 5 augustus 2021
< p id="AKpR2F">De EFF heeft een verklaring vrijgegeven die het plan van Apple vernietigt en het min of meer een “grondig gedocumenteerde, zorgvuldig doordachte en nauw begrensde achterdeur” noemt. Het persbericht van de EFF gaat in detail in op hoe volgens de EFF de maatregelen voor kinderveiligheid van Apple kunnen worden misbruikt door overheden en hoe ze de privacy van gebruikers verminderen.
Apple's filtering van iMessage en iCloud is geen gladde helling naar achterdeurtjes die spraak onderdrukken en onze communicatie minder veilig maken. We zijn er al: dit is een volledig gebouwd systeem dat wacht op externe druk om de minste verandering aan te brengen. https://t.co/f2nv062t2n
— EFF (@EFF) 5 augustus 2021
Kendra Albert, een instructeur bij de Cyberlaw Clinic van Harvard, heeft een discussie over de mogelijke gevaren voor queer-kinderen en Apple's aanvankelijke gebrek aan duidelijkheid over leeftijdscategorieën voor de functie voor ouderlijke meldingen.
< p lang="en" dir="ltr">Het idee dat ouders veilige mensen zijn voor tieners om gesprekken over seks of sexting mee te voeren, is bewonderenswaardig, maar in veel gevallen niet waar. (En voor zover ik weet, zijn deze dingen niet alleen van toepassing op kinderen onder de 13 jaar.)
— Kendra Albert (@KendraSerra) 5 augustus 2021
EFF meldt dat de iMessage-naaktheidsmeldingen niet naar de ouders gaan als het kind tussen 13 en 17 jaar oud is maar dat staat nergens in de Apple-documentatie die ik kan vinden. https://t.co/Ma1BdyqZfW
— Kendra Albert (@KendraSerra) 6 augustus 2021
Edward Snowden heeft het artikel in de Financial Times over het systeem geretweet en zijn eigen karakterisering van wat Apple doet.
Apple is van plan iPhones zo aan te passen dat ze constant op smokkelwaar scannen:
“Het is een absoluut afschuwelijk idee, omdat het zal leiden tot gedistribueerde bulksurveillance van onze telefoons en laptops”, zegt Ross Anderson, hoogleraar beveiligingstechniek. https://t.co/rS92HR3pUZ
— Edward Snowden (@Snowden) 5 augustus 2021
Politicus Brianna Wu noemde het systeem “het slechtste idee in de geschiedenis van Apple”. ”
Dit is het slechtste idee in de geschiedenis van Apple, en dat zeg ik niet lichtvaardig.
Het vernietigt hun geloofwaardigheid op het gebied van privacy. Het zal worden misbruikt door regeringen. Het zal ervoor zorgen dat homoseksuele kinderen worden vermoord en verstoten. Dit is het slechtste idee ooit. https://t.co/M2EIn2jUK2
— Brianna Wu (@BriannaWu) 5 augustus 2021
Even voor de duidelijkheid: het scannen van Apple detecteert geen foto's van kindermishandeling. Het detecteert een lijst met bekende verboden afbeeldingen die aan een database zijn toegevoegd, in eerste instantie afbeeldingen van kindermisbruik die elders circuleren. Welke afbeeldingen in de loop van de tijd worden toegevoegd, is willekeurig. Het weet niet wat een kind is.
— SoS (@SwiftOnSecurity) 5 augustus 2021
Schrijver Matt Blaze twitterde ook over de bezorgdheid dat de technologie zou kunnen worden misbruikt door overheden te overtreffen en andere inhoud dan CSAM te voorkomen.
Met andere woorden, niet alleen het beleid moet uitzonderlijk robuust zijn, maar ook de implementatie.
— matt blaze (@mattblaze) 6 augustus 2021
Epic CEO Tim Sweeney had ook kritiek op Apple en zei dat het bedrijf “de gegevens van iedereen standaard in iCloud opzuigt”. Hij beloofde ook om meer specifiek over Apple's Child Safety-systeem te praten.
Het is afschuwelijk hoe Apple de gegevens van iedereen standaard in iCloud opzuigt, de 15+ afzonderlijke opties verbergt om delen ervan uit te schakelen in Instellingen onder je naam, en je dwingt een ongewenst e-mailaccount te hebben. Apple zou NOOIT toestaan dat een derde partij een dergelijke app levert.
— Tim Sweeney (@TimSweeneyEpic) 6 augustus 2021
Ik zal later een aantal zeer gedetailleerde gedachten over dit verwante onderwerp delen.
— Tim Sweeney (@TimSweeneyEpic) 6 augustus 2021
Niet elke reactie heeft echter kritisch geweest. Ashton Kutcher (die sinds 2011 pleitbezorger is om een einde te maken aan de handel in kinderseks) noemt het werk van Apple “een grote stap voorwaarts” voor de inspanningen om CSAM te elimineren.
Ik geloof in privacy – ook voor kinderen van wie seksueel misbruik zonder toestemming is gedocumenteerd en online wordt verspreid. Deze door @Apple aangekondigde inspanningen zijn een grote stap voorwaarts in de strijd om CSAM van internet te verwijderen. https://t.co/TQIxHlu4EX
— Ashton Kutcher (@aplusk) 5 augustus 2021