Beleidsgroepen verzoeken Apple af te zien van plannen om apparaten te scannen op afbeeldingen van kindermisbruik

0
137

Een internationale coalitie van beleids- en burgerrechtengroepen publiceerde donderdag een open brief waarin ze Apple vroegen “af te zien van zijn onlangs aangekondigde plannen om bewakingsfuncties in iPhones, iPads en andere Apple-producten in te bouwen”. De groepen zijn onder meer de American Civil Liberties Union, de Electronic Frontier Foundation, Access Now, Privacy International en het Tor Project.

Eerder deze maand kondigde Apple zijn plannen aan om nieuwe technologie binnen iOS te gebruiken om mogelijke beelden van kindermisbruik op te sporen met als doel de verspreiding van materiaal voor seksueel misbruik van kinderen (CSAM) online te beperken. Apple heeft ook een nieuwe functie “communicatieveiligheid” aangekondigd, die machine learning op het apparaat zal gebruiken om seksueel expliciete afbeeldingen die door kinderen in de Berichten-app worden ontvangen, te identificeren en te vervagen. Ouders van kinderen van 12 jaar en jonger kunnen op de hoogte worden gesteld als het kind een dergelijke afbeelding bekijkt of verzendt.

“Hoewel deze mogelijkheden bedoeld zijn om kinderen te beschermen en de verspreiding van seksueel misbruik van kinderen te verminderen materiaal, we zijn bezorgd dat ze zullen worden gebruikt om beschermde meningsuiting te censureren, de privacy en veiligheid van mensen over de hele wereld te bedreigen en rampzalige gevolgen te hebben voor veel kinderen”, schreven de groepen in de brief.

De nieuwe pagina “Kinderveiligheid” van Apple beschrijft de plannen, die vereisen dat op het apparaat wordt gescand voordat een back-up van een afbeelding wordt gemaakt in iCloud. Het scannen vindt pas plaats als er een back-up wordt gemaakt van een bestand naar iCloud, en Apple zegt dat het alleen gegevens over een match ontvangt als de cryptografische vouchers (die samen met de afbeelding naar iCloud worden geüpload) voor een account voldoen aan een drempel van overeenkomende bekende CSAM. Apple en andere cloud-e-mailproviders hebben hash-systemen gebruikt om te scannen op CSAM die via e-mail is verzonden, maar het nieuwe programma zou dezelfde scans toepassen op afbeeldingen die zijn opgeslagen in iCloud, zelfs als de gebruiker ze nooit deelt of naar iemand anders stuurt.

Gerelateerd

Apple's controversiële nieuwe functies voor kinderbescherming, uitgelegd

Als reactie op zorgen over hoe de technologie zou kunnen worden misbruikt, volgde Apple door te zeggen dat het het gebruik ervan zou beperken tot het detecteren van CSAM “en we zullen niet ingaan op het verzoek van een regering om het uit te breiden”, aldus het bedrijf.

Veel van het verzet tegen de nieuwe maatregelen was gericht op de functie voor het scannen van apparaten, maar de burgerrechten- en privacygroepen zeiden dat het plan om naaktheid in iMessages voor kinderen te vervagen, kinderen in gevaar en zal de end-to-end-codering van iMessage breken.

“Zodra deze achterdeurfunctie is ingebouwd, kunnen overheden Apple dwingen de melding uit te breiden naar andere accounts en afbeeldingen te detecteren die om andere redenen dan seksueel expliciet zijn aanstootgevend”, staat in de brief. staten.