Apple a fourni plus de détails sur ses plans à venir pour analyser les photos iCloud à la recherche de matériel pédopornographique (CSAM) via les iPhones et iPads des utilisateurs. La société a publié un nouveau document explorant les garanties qu'elle espère augmenter la confiance des utilisateurs dans l'initiative. Cela inclut une règle pour ne signaler que les images trouvées dans plusieurs bases de données sur la sécurité des enfants avec différentes affiliations gouvernementales – empêchant théoriquement un pays d'ajouter du contenu non CSAM au système.
Les prochains iOS et iPadOS d'Apple Les versions mettront automatiquement en correspondance les comptes iCloud Photos basés aux États-Unis avec le CSAM connu à partir d'une liste de hachages d'images compilés par des groupes de sécurité des enfants. Alors que de nombreuses entreprises analysent à distance les services de stockage dans le cloud, la stratégie d'Apple basée sur les appareils a suscité de vives critiques de la part de certains experts en cryptographie et en confidentialité.
Le document, intitulé « Examen du modèle de menace de sécurité des fonctionnalités de sécurité des enfants d'Apple », espère dissiper les problèmes de confidentialité et de sécurité liés à ce déploiement. Il s'appuie sur une interview du Wall Street Journal avec le cadre d'Apple Craig Federighi, qui a décrit certaines des informations ce matin.
Dans le document, Apple dit qu'il ne s'appuiera pas sur une seule base de données affiliée au gouvernement, comme celle du National Center for Missing and Exploited Children, ou NCMEC, basé aux États-Unis, pour identifier CSAM. Au lieu de cela, il ne correspondra qu'aux images d'au moins deux groupes ayant des affiliations nationales différentes. L'objectif est qu'aucun gouvernement ne puisse avoir le pouvoir d'insérer secrètement du contenu sans rapport à des fins de censure, car il ne correspondrait aux hachages d'aucune autre base de données.
:no_upscale()/cdn.vox-cdn .com/uploads/chorus_asset/file/22781290/Screen_Shot_2021_08_13_at_3.35.42_PM.png)
Apple a fait référence à l'utilisation potentielle de plusieurs bases de données sur la sécurité des enfants, mais jusqu'à aujourd'hui, il n'avait pas expliqué le système de chevauchement. Lors d'un appel avec des journalistes, Apple a déclaré qu'il ne nommait le NCMEC que parce qu'il n'avait pas encore conclu d'accords avec d'autres groupes.
Le journal confirme un détail mentionné par Federighi : initialement, Apple ne signalera un compte iCloud que s'il identifie 30 images comme CSAM. Ce seuil a été choisi pour fournir une “marge de sécurité drastique” pour éviter les faux positifs, indique le document – et comme il évalue les performances du système dans le monde réel, “nous pouvons changer le seuil”.
Il fournit également plus d'informations sur un système d'audit mentionné par Federighi. La liste d'Apple des hachages CSAM connus sera intégrée dans iOS et iPadOS dans le monde entier, bien que le système de numérisation ne fonctionnera qu'aux États-Unis pour le moment. Apple fournira une liste complète des hachages que les auditeurs pourront vérifier par rapport aux bases de données de sécurité des enfants, une autre méthode pour s'assurer qu'il ne correspond pas secrètement à plus d'images. En outre, il indique qu'il « refusera toutes les demandes » pour que les modérateurs signalent « tout autre élément que les documents CSAM » pour les comptes qui sont signalés — faisant référence au potentiel d'utilisation de ce système pour d'autres types de surveillance.
Federighi a reconnu qu'Apple avait introduit une “confusion” avec son annonce la semaine dernière. Mais Apple a maintenu la mise à jour elle-même – elle a déclaré aux journalistes que bien qu'elle soit encore en train de finaliser et d'itérer les détails, elle n'a pas modifié ses plans de lancement en réponse aux critiques de la semaine dernière.