Apple retarde les fonctionnalités controversées de protection de l'enfance après un tollé sur la vie privée

0
110

Apple retarde ses fonctionnalités de protection de l'enfance annoncées le mois dernier, y compris une fonctionnalité controversée qui analyserait les photos des utilisateurs à la recherche de matériel pédopornographique (CSAM), à la suite de vives critiques selon lesquelles les changements pourraient diminuer la confidentialité des utilisateurs. Les changements devaient être déployés plus tard cette année.

“Le mois dernier, nous avons annoncé des plans pour des fonctionnalités destinées à aider à protéger les enfants contre les prédateurs qui utilisent des outils de communication pour les recruter et les exploiter, et à limiter la propagation du matériel d'abus sexuel d'enfants”, a déclaré Apple dans un communiqué à The Verge. « Sur la base des commentaires des clients, des groupes de défense des droits, des chercheurs et d'autres, nous avons décidé de prendre du temps supplémentaire au cours des prochains mois pour recueillir des commentaires et apporter des améliorations avant de publier ces fonctionnalités de sécurité des enfants d'une importance cruciale. »

C'est un renversement majeur < p id="Pt0z5g">Le communiqué de presse original d'Apple concernant les changements, qui visaient à réduire la prolifération du matériel pédopornographique (CSAM), contient une déclaration similaire en haut de la page. Cette version a détaillé trois changements majeurs dans les travaux. Une modification apportée à la recherche et à Siri pointerait vers des ressources pour empêcher CSAM si un utilisateur recherchait des informations le concernant.

Les deux autres changements ont fait l'objet d'un examen plus approfondi. L'un alertait les parents lorsque leurs enfants recevaient ou envoyaient des photos sexuellement explicites et brouillerait ces images pour les enfants. L'autre aurait numérisé des images stockées dans les photos iCloud d'un utilisateur pour CSAM et les aurait signalées aux modérateurs Apple, qui pourraient ensuite renvoyer les rapports au National Center for Missing and Exploited Children, ou NCMEC.

Connexes

Les nouvelles fonctionnalités controversées de protection des enfants d'Apple, expliquées

Apple a longuement détaillé le système de numérisation iCloud Photo pour démontrer qu'il n'affaiblit pas la confidentialité des utilisateurs. En bref, il numérisait les photos stockées dans iCloud Photos sur votre appareil iOS et évaluerait ces photos avec une base de données de hachages d'images CSAM connus du NCMEC et d'autres organisations de sécurité des enfants.

Néanmoins, de nombreux experts en confidentialité et en sécurité ont fortement critiqué l'entreprise pour le nouveau système, arguant qu'elle aurait pu créer un système de surveillance sur l'appareil et qu'il violait la confiance que les utilisateurs avaient placée dans Apple pour la protection de la vie privée sur l'appareil.

L'Electronic Frontier Foundation a déclaré dans un communiqué du 5 août que le nouveau système, aussi bien intentionné soit-il, « briserait les promesses clés du cryptage du messager lui-même. et ouvrir la porte à des abus plus larges. »

« Apple compromet le téléphone que vous et moi possédons et exploitons », a déclaré Ben Thompson de Stratechery dans sa propre critique, « sans aucun des nous avons notre mot à dire. »