Apple révèle de nouveaux efforts pour lutter contre les images d'abus d'enfants

0
152

Dans un briefing jeudi après-midi, Apple a confirmé son intention de déployer une nouvelle technologie dans iOS, macOS, watchOS et iMessage qui détectera les images potentielles d'abus d'enfants, mais a clarifié des détails cruciaux du projet en cours. Pour les appareils aux États-Unis, les nouvelles versions d'iOS et d'iPadOS déployées cet automne ont « de nouvelles applications de cryptographie pour aider à limiter la propagation de CSAM [child sexual abuse material] en ligne, tout en concevant la confidentialité des utilisateurs ».

Le projet est également détaillé dans une nouvelle page « Sécurité des enfants » sur le site Web d'Apple. L'implémentation la plus invasive et potentiellement controversée est le système qui effectue une analyse sur l'appareil avant qu'une image ne soit sauvegardée dans iCloud. À partir de la description, l'analyse ne se produit pas tant qu'un fichier n'est pas sauvegardé sur iCloud, et Apple ne reçoit des données sur une correspondance que si les bons cryptographiques (téléchargés sur iCloud avec l'image) pour un compte particulier atteignent un seuil de correspondance CSAM connu. .

Apple a décrit plusieurs restrictions incluses pour protéger la confidentialité

Pendant des années, Apple a utilisé des systèmes de hachage pour rechercher des images d'abus d'enfants envoyées par e-mail, conformément aux systèmes similaires de Gmail et d'autres fournisseurs de messagerie cloud. Le programme annoncé aujourd'hui appliquera les mêmes analyses aux images des utilisateurs stockées dans iCloud Photos, même si les images ne sont jamais envoyées à un autre utilisateur ou partagées.

Dans un PDF fourni avec le briefing, Apple a justifié ses décisions de numérisation d'images en décrivant plusieurs restrictions incluses pour protéger la confidentialité :

Apple n'apprend rien sur les images qui ne correspondent pas à la base de données CSAM connue

.

Apple ne peut pas accéder aux métadonnées ou aux dérivés visuels des images CSAM correspondantes avant un

le seuil de correspondances est dépassé pour un compte iCloud Photos.

Le risque que le système signale incorrectement un compte est extrêmement faible. De plus,

Apple examine manuellement tous les rapports envoyés au NCMEC pour garantir l'exactitude des rapports.

Les utilisateurs ne peuvent pas accéder à la base de données d'images CSAM connues ni la visualiser.

Les utilisateurs ne peuvent pas identifier quelles images ont été signalées comme CSAM par le système

Les nouveaux détails s'appuient sur les préoccupations divulguées plus tôt cette semaine, mais ajoutent également un certain nombre de garanties qui devraient se prémunir contre les risques de confidentialité d'un tel système. En particulier, le système de seuil garantit que les erreurs isolées ne généreront pas d'alertes, permettant à Apple de cibler un taux d'erreur d'une fausse alerte par billion d'utilisateurs par an. Le système de hachage est également limité au matériel signalé par le National Center for Missing and Exploited Children (NCMEC) et aux images téléchargées sur iCloud Photos. Une fois qu'une alerte est générée, elle est examinée par Apple et le NCMEC avant d'alerter les forces de l'ordre, offrant une protection supplémentaire contre le système utilisé pour détecter le contenu non CSAM.

Apple a commandé des évaluations techniques du système à trois cryptographes indépendants (PDF 1, 2 et 3), qui l'ont trouvé mathématiquement robuste. « À mon avis, ce système augmentera probablement de manière significative la probabilité que les personnes qui possèdent ou vendent de telles images (utilisateurs nuisibles) soient trouvées ; cela devrait aider à protéger les enfants », a déclaré le professeur David Forsyth, directeur de l'informatique à l'Université de l'Illinois, dans l'une des évaluations. “La précision du système de correspondance, combinée au seuil, rend très improbable que des images qui ne sont pas des images CSAM connues soient révélées.”

Cependant, Apple a déclaré que d'autres groupes de sécurité des enfants étaient susceptibles d'être ajoutées en tant que sources de hachage à mesure que le programme se développe, et la société ne s'est pas engagée à rendre la liste des partenaires accessible au public à l'avenir. Cela est susceptible d'accroître les inquiétudes quant à la façon dont le système pourrait être exploité par le gouvernement chinois, qui cherche depuis longtemps un meilleur accès aux données des utilisateurs d'iPhone dans le pays.

Exemples de messages d'avertissement pour les enfants et les parents lorsque des photos sexuellement explicites sont détectées Exemples de messages avertissant les enfants et les parents lorsque des photos sexuellement explicites sont détectées. Photo : Apple

En plus des nouvelles mesures dans iCloud Photos, Apple a ajouté deux systèmes supplémentaires pour protéger les jeunes propriétaires d'iPhone contre le risque de maltraitance des enfants. L'application Messages a déjà analysé sur l'appareil les pièces jointes d'images pour les comptes des enfants afin de détecter le contenu potentiellement sexuellement explicite. Une fois détecté, le contenu est flou et un avertissement apparaît. Un nouveau paramètre que les parents peuvent activer sur leurs comptes familiaux iCloud déclenchera un message indiquant à l'enfant que s'il visualise (entrant) ou envoie (sortant) l'image détectée, ses parents recevront un message à ce sujet.

Apple met également à jour la manière dont Siri et l'application Search répondent aux requêtes sur les images d'abus d'enfants. Dans le cadre du nouveau système, les applications “expliqueront aux utilisateurs que l'intérêt pour ce sujet est nuisible et problématique, et fourniront des ressources de partenaires pour obtenir de l'aide sur ce problème.”