Apple weigert overheidseisen om scannen uit te breiden tot buiten kindermishandeling

0
93

Chris Duckett

Door Chris Duckett | 10 augustus 2021 — 05:11 GMT (06:11 BST) | Onderwerp: Beveiliging

apple-csam-siri-search-warning.jpg

Afbeelding: Apple

Apple heeft een FAQ [PDF] gemaakt als reactie op de kritiek die erop werd geuit na de aankondiging van plannen om apparaten te laten scannen op materiaal van kindermisbruik in afbeeldingen die naar iCloud zijn geüpload.

Het detectiesysteem voor materiaal voor seksueel misbruik van kinderen (CSAM) zorgt ervoor dat apparaten met iOS 15, iPadOS 15, watchOS 8 en macOS Monterey afbeeldingen op het apparaat matchen met een lijst met bekende CSAM-afbeeldingshashes die door de VS wordt verstrekt National Center for Missing and Exploited Children (NCMEC) en andere kinderveiligheidsorganisaties voordat een afbeelding wordt opgeslagen in iCloud.

Als er een hash-overeenkomst wordt gemaakt, worden metadata die Apple “veiligheidsvouchers” noemt, samen met de afbeelding geüpload en zodra een niet nader genoemde drempel is bereikt, inspecteert Apple de metadata handmatig en als het als CSAM wordt beschouwd, wordt het account uitgeschakeld en een rapport verzonden naar NCMEC.

Veel van de kritiek ging over het idee dat zelfs als Apple goedbedoeld en momenteel beperkt zou zijn, het systeem alleen door Apple zou kunnen worden uitgebreid, of dat het na een gerechtelijk bevel op jacht zou kunnen gaan naar andere soorten materiaal.

Apple zei dat zijn processen zijn ontworpen om te voorkomen dat dit gebeurt.

“CSAM-detectie voor iCloud-foto's is zo gebouwd dat het systeem alleen werkt met CSAM-afbeeldingshashes die worden geleverd door NCMEC en andere kinderveiligheidsorganisaties”, aldus Apple.

“Er is geen geautomatiseerde rapportage aan wetshandhavers en Apple voert menselijke controle uit voordat een melding wordt gedaan bij NCMEC. Als gevolg hiervan is het systeem alleen ontworpen om foto's te rapporteren waarvan bekend is dat ze CSAM zijn in iCloud-foto's. < /p>

“In de meeste landen, waaronder de Verenigde Staten, is het bezit van deze afbeeldingen alleen al een misdaad en is Apple verplicht om elk geval waarvan we vernemen aan de bevoegde autoriteiten te melden.”

Over het vooruitzicht gedwongen te worden om andere hashes aan zijn dataset toe te voegen, verwees Apple naar zijn eerdere weigeringen om de Amerikaanse wetshandhavers te helpen.

“Apple zal dergelijke eisen weigeren”, aldus het. “We hebben eerder te maken gehad met eisen om door de overheid opgelegde wijzigingen op te zetten en uit te voeren die de privacy van gebruikers aantasten, en hebben die eisen standvastig afgewezen. We zullen ze in de toekomst blijven weigeren.

“Laat ons duidelijk zijn, deze technologie is beperkt tot het detecteren van CSAM die is opgeslagen in iCloud en we zullen niet ingaan op het verzoek van een regering om het uit te breiden. Bovendien voert Apple menselijke beoordelingen uit voordat het een melding doet bij NCMEC. In het geval dat het systeem foto's markeert die niet overeenkomen met bekende CSAM-afbeeldingen, zou het account niet worden uitgeschakeld en zou er geen rapport worden ingediend bij NCMEC.”

Apple beweerde dat zijn systeem zou voorkomen dat niet-CSAM-afbeeldingen worden geïnjecteerd en gemarkeerd, omdat het bedrijf de set hashes die wordt gebruikt voor het matchen niet toevoegt en mensen betrokken zijn bij het verificatieproces.

“Dezelfde set hashes wordt opgeslagen in het besturingssysteem van elke iPhone- en iPad-gebruiker, dus gerichte aanvallen op alleen specifieke individuen zijn volgens ons ontwerp niet mogelijk”, aldus Apple.

“Als gevolg hiervan zullen systeemfouten of aanvallen er niet toe leiden dat onschuldige mensen worden gerapporteerd aan NCMEC.”

De iPhone-maker herhaalde zijn beweringen dat de oplossing privacyvoordelen had ten opzichte van het scannen van naar de oplossing geüploade afbeeldingen.

“Bestaande technieken, zoals geïmplementeerd door andere bedrijven, scannen alle gebruikersfoto's die in de cloud zijn opgeslagen”, aldus het.

“Dit creëert privacyrisico's voor alle gebruikers. CSAM-detectie in iCloud-foto's biedt aanzienlijke privacyvoordelen ten opzichte van deze technieken door te voorkomen dat Apple over foto's leert, tenzij ze beide overeenkomen met bekende CSAM-afbeeldingen en zijn opgenomen in een iCloud-foto's account dat een verzameling bekende CSAM bevat.”

Apple zei ook dat de functie niet zou werken als gebruikers iCloud-foto's hebben uitgeschakeld en niet zou werken op “privé-iPhone-fotobibliotheek op het apparaat”.

Over het scannen van afbeeldingen in iMessage heeft Apple uitgebreid ingegaan op de vereisten voor ouders om te worden gewaarschuwd zodra een gezinsgroep is gemaakt en ouders zich aanmelden.

“Voor kinderaccounts van 12 jaar en jonger zal elk verzonden of ontvangen exemplaar van een seksueel expliciete afbeelding het kind waarschuwen dat als ze de afbeelding blijven bekijken of verzenden, hun ouders een melding krijgen. Alleen als het kind doorgaat met het verzenden of verzenden van de afbeelding. het bekijken van een afbeelding na deze waarschuwing zal de melding worden verzonden,” zei het.

“Voor kinderaccounts van 13-17 jaar wordt het kind nog steeds gewaarschuwd en gevraagd of het een seksueel expliciete afbeelding wil bekijken of delen, maar ouders worden niet op de hoogte gebracht.”

Apple zei te kijken naar het toevoegen van “extra ondersteuning aan Siri en Search om slachtoffers – en mensen die slachtoffers kennen – meer begeleiding te bieden bij het zoeken naar hulp”.

Hoewel het CSAM-systeem momenteel beperkt is tot de VS, zou Cupertino binnenkort onder druk kunnen komen te staan ​​van Canberra om het naar Australië te brengen.

Op maandag heeft de regering een reeks regels voor online veiligheid onthuld die van toepassing zijn op sociale media, berichtenplatforms en alle relevante elektronische diensten van welke aard dan ook.

Van de aanbieder wordt verwacht dat hij de beschikbaarheid van cyberpestenmateriaal gericht op een Australisch kind, cybermisbruikmateriaal gericht op een Australische volwassene, een intieme afbeelding van een persoon zonder wederzijds goedvinden, klasse 1-materiaal, materiaal dat weerzinwekkend gewelddadig gedrag promoot, materiaal dat aanzet tot weerzinwekkend gewelddadig gedrag, materiaal dat instrueert in weerzinwekkend gewelddadig gedrag en materiaal dat weerzinwekkend gewelddadig gedrag afbeeldt.

De verwachtingen scheppen ook extra verwachtingen, zoals dat de aanbieder van de service redelijke stappen zal ondernemen om proactief de mate te minimaliseren waarin materiaal of activiteit op de service onwettig of schadelijk is of kan zijn.

De Australische eSafety Commissioner zal de bevoegdheid hebben om technologiebedrijven te gelasten te rapporteren over hoe ze op deze schade reageren en boetes op te leggen tot AU$555.000 voor bedrijven en AU$111.000 voor individuen als ze niet reageren.

Verwante dekking

Scannen van materiaal voor kindermisbruik door Apple in iOS 15 trekt vuur aan Waarom lijkt het alsof Apple zoveel slechte ontwerpkeuzes maakt? Apple heeft een probleem met ProtonVPN die overheden wil uitdagen FBI bekritiseert Apple omdat het niet helpt iPhones van crack Pensacola-schutterTrump roept Apple op om telefoon van vermeende schutter te ontgrendelen voor FBI

gerelateerde onderwerpen:

Apple Security TV Data Management CXO-datacenters

Door Chris Duckett | 10 augustus 2021 — 05:11 GMT (06:11 BST) | Onderwerp: Beveiliging