Il vicepresidente di Apple riconosce le preoccupazioni sulla nuova funzione di scansione nel memo interno

0
133

La prossima funzione di Apple che eseguirà la scansione dei dispositivi iOS alla ricerca di immagini di abusi sui minori è una “missione importante”, ha scritto un vicepresidente del software dell'azienda in una nota interna. Riportato per la prima volta da 9to5 Mac, il promemoria di Sebastian Marineau-Mes riconosce che le nuove protezioni hanno “preoccupato per le implicazioni” di alcune persone, ma che l'azienda “manterrà il profondo impegno di Apple per la privacy degli utenti”.

Come parte delle sue protezioni estese per i bambini, Apple prevede di scansionare le immagini su iPhone e altri dispositivi prima che vengano caricate su iCloud. Se trova un'immagine che corrisponde a quella nel database del National Center for Missing and Exploited Children (NCMEC), un essere umano di Apple esaminerà l'immagine per confermare se contiene pornografia infantile. Se è confermato, NCMEC riceverà una notifica e l'account dell'utente verrà disabilitato.

L'annuncio ha sollevato preoccupazioni tra i sostenitori della privacy che si sono chiesti come Apple potrebbe impedire che il sistema venga sfruttato da malintenzionati. L'Electronic Frontier Foundation ha dichiarato in una dichiarazione che “è impossibile costruire un sistema di scansione lato client che possa essere utilizzato solo per immagini sessualmente esplicite inviate o ricevute da bambini” e che il sistema, per quanto ben intenzionato, “non mancherà le promesse chiave della crittografia stessa del messenger e aprire la porta ad abusi più ampi.”

Secondo 9to5Mac, Marineau-Mes ha scritto nel memo che il progetto ha comportato un “profondo impegno interfunzionale” in tutto il azienda che “fornisce strumenti per proteggere i bambini, ma mantiene anche il profondo impegno di Apple per la privacy degli utenti”.

Apple non ha risposto immediatamente a una richiesta di commento venerdì.