Apple avslöjar nya ansträngningar för att bekämpa bilder från övergrepp mot barn

0
194

I en briefing på torsdagseftermiddagen bekräftade Apple tidigare rapporterade planer på att implementera ny teknik inom iOS, macOS, watchOS och iMessage som kommer att upptäcka potentiella bilder av övergrepp mot barn, men förtydligade viktiga detaljer från det pågående projektet. För enheter i USA har nya versioner av iOS och iPadOS som rullar ut i höst “nya kryptografiska applikationer för att begränsa spridningen av CSAM [material för sexuellt övergrepp mot barn] online, samtidigt som de utformas för användarnas integritet.”

Projektet beskrivs också i en ny ”Barnsäkerhetssida” på Apples webbplats. Den mest invasiva och potentiellt kontroversiella implementeringen är systemet som utför skanning på enheten innan en bild säkerhetskopieras i iCloud. Från beskrivningen sker skanning inte förrän en fil säkerhetskopieras till iCloud, och Apple tar bara emot data om en matchning om de kryptografiska verifikationerna (uppladdade till iCloud tillsammans med bilden) för ett visst konto uppfyller en tröskel för matchning av kända CSAM .

Apple beskrev flera begränsningar som ingår för att skydda integriteten

Apple har i åratal använt hash -system för att söka efter bilder från barnmisshandel som skickats via e -post, i linje med liknande system hos Gmail och andra molnleverantörer. Programmet som meddelades idag kommer att tillämpa samma skanningar på användarbilder som lagras i iCloud -foton, även om bilderna aldrig skickas till en annan användare eller på annat sätt delas.

I en PDF -fil tillsammans med informationen motiverade Apple sina steg för bildskanning genom att beskriva flera begränsningar som ingår för att skydda integriteten:

Apple lär sig ingenting om bilder som matcha inte den kända CSAM

databasen.

Apple kan inte komma åt metadata eller visuella derivat för matchade CSAM -bilder förrän

matchningsgränsen överskrids för ett iCloud Photos -konto.

Risken för att systemet felmarkerar ett konto är extremt låg. Dessutom

Apple granskar manuellt alla rapporter till NCMEC för att säkerställa rapporteringsnoggrannhet.

Användare kan inte komma åt eller visa databasen med kända CSAM -bilder.

Användare kan inte identifiera vilka bilder som flaggades som CSAM av systemet

De nya detaljerna bygger på bekymmer som läckt ut tidigare i veckan, men lägger också till ett antal skyddsåtgärder som bör skydda mot integritetsriskerna med ett sådant system. I synnerhet säkerställer tröskelsystemet att ensamfel inte genererar varningar, vilket gör att Apple kan rikta in en felprocent på en falsk varning per biljon användare per år. Hashningssystemet är också begränsat till material som flaggats av National Center for Missing and Exploited Children (NCMEC) och bilder som laddas upp till iCloud -foton. När en avisering har genererats granskas den av Apple och NCMEC innan de varnar för brottsbekämpning, vilket ger ytterligare skydd mot att systemet används för att upptäcka innehåll som inte är CSAM.

Apple beställde tekniska bedömningar av systemet från tre oberoende kryptografer (PDF -filer 1, 2 och 3), som tyckte att det var matematiskt robust. ”Enligt min bedömning kommer detta system sannolikt att öka sannolikheten för att människor som äger eller trafikerar sådana bilder (skadliga användare) avsevärt. detta borde hjälpa till att skydda barn ”, säger professor David Forsyth, ordförande för datavetenskap vid University of Illinois, i en av bedömningarna. ”Noggrannheten i matchningssystemet, i kombination med tröskeln, gör det mycket osannolikt att bilder som inte är kända CSAM -bilder kommer att avslöjas.”

Apple sa dock att andra barnsäkerhetsgrupper skulle sannolikt läggas till som hashkällor när programmet expanderar, och företaget förbundit sig inte att göra listan över partners offentligt tillgänglig framöver. Det kommer sannolikt att öka oro över hur systemet kan utnyttjas av den kinesiska regeringen, som länge har sökt större tillgång till iPhone -användardata i landet.

 Varningsprov för meddelanden för barn och föräldrar när sexuellt explicita foton detekteras Varningar för exempelmeddelanden för barn och föräldrar när sexuellt tydliga foton upptäcks. Foto: Apple

Vid sidan av de nya åtgärderna i iCloud Photos lade Apple till ytterligare två system för att skydda unga iPhone -ägare som riskerar barnmisshandel. Meddelanden-appen har redan skannat bildbilagor för barnkonton på enheten för att upptäcka innehåll som potentiellt är sexuellt uttryckligt. När det väl upptäcks är innehållet suddigt och en varning visas. En ny inställning som föräldrar kan aktivera på sin familj iCloud -konton kommer att utlösa ett meddelande som berättar för barnet att om de ser (inkommande) eller skickar (utgående) den upptäckta bilden kommer deras föräldrar att få ett meddelande om det.

Apple uppdaterar också hur Siri och sökappen svarar på frågor om bilder från övergrepp mot barn. Enligt det nya systemet kommer apparna “att förklara för användare att intresset för det här ämnet är skadligt och problematiskt och tillhandahålla resurser från partners för att få hjälp med detta problem.”