In een nieuwe FAQ heeft Apple geprobeerd de bezorgdheid weg te nemen dat zijn nieuwe maatregelen tegen kindermishandeling door autoritaire regeringen zouden kunnen worden omgezet in bewakingsinstrumenten. “Laat ons duidelijk zijn, deze technologie is beperkt tot het detecteren van CSAM [materiaal van seksueel misbruik van kinderen] dat is opgeslagen in iCloud en we zullen niet ingaan op het verzoek van een regering om het uit te breiden”, schrijft het bedrijf.
De nieuwe tools van Apple, die afgelopen donderdag zijn aangekondigd, bevatten twee functies die zijn ontworpen om kinderen te beschermen. Eén, genaamd 'communicatieveiligheid', gebruikt machine learning op het apparaat om seksueel expliciete afbeeldingen die door kinderen in de Berichten-app worden ontvangen, te identificeren en te vervagen, en kan een ouder op de hoogte stellen als een kind van 12 jaar en jonger besluit een dergelijke afbeelding te bekijken of te verzenden. De tweede is ontworpen om bekende CSAM te detecteren door de afbeeldingen van gebruikers te scannen als ze ervoor kiezen deze naar iCloud te uploaden. Apple wordt op de hoogte gesteld als CSAM wordt gedetecteerd, en het zal de autoriteiten waarschuwen wanneer het verifieert dat dergelijk materiaal bestaat.
“Apple's CSAM-detectiemogelijkheid is uitsluitend gebouwd om bekende CSAM-afbeeldingen te detecteren”
De plannen stuitten op een snelle reactie van digitale privacygroepen en campagnevoerders, die beweerden dat deze een achterdeur in de software van Apple introduceren. Deze groepen merken op dat zodra zo'n achterdeur bestaat, er altijd de mogelijkheid is om deze uit te breiden om te scannen op soorten inhoud die verder gaan dan materiaal voor seksueel misbruik van kinderen. Autoritaire regeringen zouden het kunnen gebruiken om te scannen op materiaal dat politiek afwijkende meningen heeft, of anti-LHBT-regimes zouden het kunnen gebruiken om seksuele uitingen aan te pakken.
“Zelfs een grondig gedocumenteerde, zorgvuldig doordachte en nauw begrensde achterdeur is nog steeds een achterdeur”, schreef de Electronic Frontier Foundation. “We hebben deze missie al in actie zien kruipen. Een van de technologieën die oorspronkelijk zijn ontwikkeld om beelden van seksueel misbruik van kinderen te scannen en te hashen, is opnieuw gebruikt om een database met 'terroristische' inhoud te creëren waaraan bedrijven kunnen bijdragen en waartoe ze toegang kunnen krijgen om dergelijke inhoud te verbieden.”
Apple stelt echter dat het voorzorgsmaatregelen heeft genomen om te voorkomen dat zijn systemen worden gebruikt om iets anders te detecteren dan beelden van seksueel misbruik. Het zegt dat de lijst met verboden afbeeldingen wordt verstrekt door het National Center for Missing and Exploited Children (NCMEC) en andere kinderveiligheidsorganisaties, en dat het systeem “alleen werkt met CSAM-afbeeldingshashes die worden geleverd door NCMEC en andere kinderveiligheidsorganisaties.” Apple zegt dat het niet zal worden toegevoegd aan deze lijst met afbeeldingshashes en dat de lijst hetzelfde is voor alle iPhones en iPads om individuele targeting van gebruikers te voorkomen.
Het bedrijf zegt ook dat het de eisen van regeringen om niet-CSAM-afbeeldingen aan de lijst toe te voegen, zal weigeren. “We hebben eerder te maken gehad met eisen om door de overheid opgelegde wijzigingen te bouwen en in te voeren die de privacy van gebruikers aantasten, en hebben die eisen standvastig afgewezen. We zullen ze in de toekomst blijven weigeren”, staat er.
Het is vermeldenswaard dat ondanks de garanties van Apple, het bedrijf in het verleden concessies heeft gedaan aan regeringen om in hun land te kunnen blijven opereren. Het verkoopt iPhones zonder FaceTime in landen waar versleutelde telefoongesprekken niet zijn toegestaan, en in China heeft het duizenden apps uit de App Store verwijderd en is het verplaatst om gebruikersgegevens op te slaan op de servers van een door de staat gerunde telecom.
De veelgestelde vragen gaan ook niet in op enkele zorgen over de functie die berichten scant op seksueel expliciet materiaal. De functie deelt geen informatie met Apple of wetshandhavers, zegt het bedrijf, maar het zegt niet hoe het ervoor zorgt dat de tool zich uitsluitend richt op seksueel expliciete afbeeldingen.
“ Het enige dat nodig zou zijn om de smalle achterdeur die Apple aan het bouwen is te verbreden, is een uitbreiding van de machine learning-parameters om naar extra soorten inhoud te zoeken, of een aanpassing van de configuratievlaggen om te scannen, niet alleen accounts van kinderen, maar van iedereen”, schreef de EFF. De EFF merkt ook op dat machine learning-technologieën deze inhoud vaak verkeerd classificeren, en noemt de pogingen van Tumblr om seksuele inhoud aan te pakken als een prominent voorbeeld van waar de technologie fout is gegaan.