Apple VP reconnaît les inquiétudes concernant la nouvelle fonctionnalité de numérisation dans le mémo interne

0
127

La prochaine fonctionnalité d'Apple qui analysera les appareils iOS à la recherche d'images de maltraitance d'enfants est une “mission importante”, a écrit un vice-président logiciel de la société dans une note interne. Signalé pour la première fois par 9to5 Mac, le mémo de Sebastian Marineau-Mes reconnaît que les nouvelles protections inquiètent certaines personnes, mais que la société “maintiendra le profond engagement d'Apple envers la confidentialité des utilisateurs”.

Dans le cadre de ses protections étendues pour les enfants, Apple prévoit de numériser les images sur les iPhones et autres appareils avant de les télécharger sur iCloud. S'il trouve une image qui correspond à une dans la base de données du Centre national pour les enfants disparus et exploités (NCMEC), un humain chez Apple examinera l'image pour confirmer si elle contient de la pornographie enfantine. S'il est confirmé, le NCMEC en sera informé et le compte de l'utilisateur sera désactivé.

L'annonce a suscité des inquiétudes parmi les défenseurs de la vie privée qui se sont demandé comment Apple pourrait empêcher l'exploitation du système par de mauvais acteurs. L'Electronic Frontier Foundation a déclaré dans un communiqué qu'« il est impossible de créer un système de numérisation côté client qui ne peut être utilisé que pour des images sexuellement explicites envoyées ou reçues par des enfants » et que le système, aussi bien intentionné soit-il, « brisera des promesses clés. du cryptage du messager lui-même et ouvrir la porte à des abus plus larges. »

Selon 9to5Mac, Marineau-Mes a écrit dans la note que le projet impliquait un « engagement interfonctionnel profond » à travers le entreprise qui “fournit des outils pour protéger les enfants, mais maintient également l'engagement profond d'Apple envers la confidentialité des utilisateurs.”

Apple n'a pas immédiatement répondu à une demande de commentaire vendredi.