Apples kommande funktion som kommer att skanna iOS -enheter efter bilder på övergrepp mot barn är ett “viktigt uppdrag”, skrev en programvarudeppförande på företaget i ett internt memo. Först rapporterat av 9to5 Mac, bekräftar memotet av Sebastian Marineau-Mes att det nya skyddet har vissa människor “oroliga för konsekvenserna” men att företaget kommer att “behålla Apples djupa engagemang för användares integritet.”
Som en del av sina utökade skydd för barn planerar Apple att skanna bilder på iPhone och andra enheter innan de laddas upp till iCloud. Om den hittar en bild som matchar en i databasen för National Center for Missing and Exploited Children (NCMEC), kommer en människa på Apple att granska bilden för att bekräfta om den innehåller barnpornografi. Om det är bekräftat meddelas NCMEC och användarens konto inaktiveras.
Tillkännagivandet väckte oro bland integritetsförespråkare som ifrågasatte hur Apple skulle kunna förhindra att systemet utnyttjas av dåliga aktörer. Electronic Frontier Foundation sade i ett uttalande att “det är omöjligt att bygga ett skanningssystem på klientsidan som bara kan användas för sexuellt explicita bilder som skickas eller tas emot av barn” och att systemet, hur välavsett det än är, “kommer att bryta viktiga löften av själva budbärarens kryptering och öppna dörren för bredare övergrepp. ”
Enligt 9to5Mac skrev Marineau-Mes i promemorian att projektet innebar” ett djupt tvärfunktionellt engagemang “över hela företag som ”levererar verktyg för att skydda barn, men också upprätthåller Apples djupa engagemang för användares integritet.”
Apple svarade inte omedelbart på en begäran om kommentar i fredags.