WhatsApp n'adoptera pas les nouvelles mesures de sécurité des enfants d'Apple, destinées à arrêter la propagation des images d'abus d'enfants, selon Will Cathcart, directeur de WhatsApp. Dans un fil Twitter, il explique qu'il croit qu'Apple “a créé un logiciel qui peut numériser toutes les photos privées sur votre téléphone”, et a déclaré qu'Apple avait pris la mauvaise voie en essayant d'améliorer sa réponse au matériel pédopornographique, ou CSAM. .
Le plan d'Apple, qu'il a annoncé jeudi, consiste à prendre des hachages d'images téléchargées sur iCloud et à les comparer à une base de données contenant des hachages d'images CSAM connues. Selon Apple, cela lui permet de garder les données des utilisateurs cryptées et d'exécuter l'analyse sur l'appareil tout en lui permettant de signaler les utilisateurs aux autorités s'il s'avère qu'ils partagent des images d'abus d'enfants. Un autre volet de la stratégie de sécurité des enfants d'Apple consiste à avertir éventuellement les parents si leur enfant de moins de 13 ans envoie ou visionne des photos contenant du contenu sexuellement explicite. Une note interne d'Apple a reconnu que les gens seraient “inquiets des implications” des systèmes.
J'ai lu les informations publiées par Apple hier et je suis inquiet. Je pense que c'est une mauvaise approche et un revers pour la vie privée des gens partout dans le monde.
Les gens ont demandé si nous adopterions ce système pour WhatsApp. La réponse est non.
— Will Cathcart (@wcathcart) 6 août 2021
Cathcart qualifie l'approche d'Apple de “très préoccupante”, affirmant qu'elle permettrait aux gouvernements ayant des idées différentes sur le type d'images qui sont et ne sont pas acceptables de demander à Apple d'ajouter des images non CSAM aux bases de données avec lesquelles il compare les images. Cathcart affirme que le système de WhatsApp pour lutter contre l'exploitation des enfants, qui utilise en partie les rapports des utilisateurs, préserve le cryptage comme celui d'Apple et a conduit l'entreprise à signaler plus de 400 000 cas au National Center for Missing and Exploited Children en 2020. (Apple travaille également avec le Center for ses efforts de détection CSAM.)
Le propriétaire de WhatsApp, Facebook, a des raisons de se jeter sur Apple pour des problèmes de confidentialité. Les modifications apportées par Apple au fonctionnement du suivi des publicités dans iOS 14.5 ont déclenché une lutte entre les deux sociétés, Facebook achetant des publicités dans les journaux critiquant les modifications apportées par Apple à la confidentialité comme étant préjudiciables aux petites entreprises. Apple a riposté, affirmant que le changement “exige simplement” que les utilisateurs aient le choix de faire ou non l'objet d'un suivi.
Cathcart qualifie l'approche d'Apple de “très préoccupante” et il n'est pas le seul
Ce n'est pas seulement WhatsApp qui a critiqué les nouvelles mesures de sécurité pour les enfants d'Apple. La liste des personnes et des organisations qui soulèvent des préoccupations comprend Edward Snowden, l'Electronic Frontier Foundation, des professeurs, etc. Nous avons rassemblé ici certaines de ces réactions pour donner un aperçu de certaines des critiques formulées contre la nouvelle politique d'Apple.
Matthew Green, professeur agrégé à l'Université Johns Hopkins, a repoussé sur la fonctionnalité avant qu'elle ne soit annoncée publiquement. Il a tweeté sur les plans d'Apple et sur la façon dont le système de hachage pourrait être abusé par les gouvernements et les acteurs malveillants.
Ces outils permettront à Apple de numériser les photos de votre iPhone à la recherche de photos qui correspondent à un hachage perceptuel spécifique et de les signaler aux serveurs Apple si trop de photos apparaissent.
— Matthew Green (@matthew_d_green) 5 août 2021
< p id="AKpR2F">L'EFF a publié une déclaration qui a fustigé le plan d'Apple, le qualifiant plus ou moins de “porte dérobée soigneusement documentée, soigneusement réfléchie et à portée étroite”. Le communiqué de presse de l'EFF explique en détail comment il pense que les mesures de sécurité des enfants d'Apple pourraient être abusées par les gouvernements et comment elles réduisent la confidentialité des utilisateurs.
Le filtrage d'iMessage et d'iCloud par Apple n'est pas une pente glissante vers des portes dérobées qui suppriment la parole et rendent nos communications moins sécurisées. Nous y sommes déjà : il s'agit d'un système complet qui n'attend qu'une pression extérieure pour effectuer le moindre changement. https://t.co/f2nv062t2n
— EFF (@EFF) 5 août 2021
Kendra Albert, instructrice à la Cyberlaw Clinic de Harvard, a un fil conducteur sur les dangers potentiels pour les enfants homosexuels et le manque initial de clarté d'Apple concernant les tranches d'âge pour la fonction de notifications parentales.
< p lang="en" dir="ltr">L'idée que les parents sont des personnes sûres avec lesquelles les adolescents peuvent avoir des conversations sur le sexe ou les sextos est admirable, mais dans de nombreux cas, ce n'est pas vrai. (Et pour autant que je sache, ce truc ne s'applique pas seulement aux enfants de moins de 13 ans).
— Kendra Albert (@KendraSerra) 5 août 2021
EFF signale que les notifications de nudité iMessage ne seront pas envoyées aux parents si l'enfant a entre 13 et 17 ans mais ce n'est nulle part dans la documentation Apple que je peux trouver. https://t.co/Ma1BdyqZfW
— Kendra Albert (@KendraSerra) 6 août 2021
Edward Snowden a retweeté l'article du Financial Times sur le système, donnant le sien caractérisation de ce que fait Apple.
Apple envisage de modifier les iPhones pour rechercher en permanence la contrebande :
« C'est une idée absolument épouvantable, car elle va conduire à une surveillance en masse téléphones et ordinateurs portables », a déclaré Ross Anderson, professeur d'ingénierie de la sécurité. https://t.co/rS92HR3pUZ
— Edward Snowden (@Snowden) 5 août 2021
La politicienne Brianna Wu a qualifié le système de “pire idée de l'histoire d'Apple”. ”
C'est la pire idée de l'histoire d'Apple, et je ne dis pas cela à la légère.
Cela détruit leur crédibilité en matière de confidentialité. Il sera abusé par les gouvernements. Il fera tuer et renier les enfants homosexuels. C'est la pire idée qui soit. https://t.co/M2EIn2jUK2
— Brianna Wu (@BriannaWu) 5 août 2021
Juste pour préciser : l'analyse d'Apple ne détecte pas les photos de maltraitance d'enfants. Il détecte une liste d'images interdites connues ajoutées à une base de données, qui sont initialement des images d'abus d'enfants circulant ailleurs. Les images ajoutées au fil du temps sont arbitraires. Il ne sait pas ce qu'est un enfant.
— SoS (@SwiftOnSecurity) 5 août 2021
L'écrivain Matt Blaze a également tweeté sur les craintes d'abus de la technologie en dépassant les gouvernements, en essayant d'empêcher le contenu autre que CSAM.
En d'autres termes, non seulement la politique doit être exceptionnellement robuste, mais la mise en œuvre aussi.
— matt blaze (@mattblaze) 6 août 2021
Epic CEO Tim Sweeney a également critiqué Apple, affirmant que la société “aspirait les données de tout le monde dans iCloud par défaut”. Il a également promis de partager plus spécifiquement ses réflexions sur le système de sécurité des enfants d'Apple.
C'est atroce de voir comment Apple aspire les données de tout le monde dans iCloud par défaut, masque les 15+ options distinctes pour en désactiver certaines parties dans les paramètres sous votre nom et vous oblige à avoir un compte de messagerie indésirable. Apple n'autoriserait JAMAIS un tiers à livrer une application comme celle-ci.
— Tim Sweeney (@TimSweeneyEpic) 6 août 2021
Je partagerai plus tard quelques réflexions très détaillées sur ce sujet connexe.
— Tim Sweeney (@TimSweeneyEpic) 6 août 2021
Toutes les réactions n'ont pas cependant été critique. Ashton Kutcher (qui a fait un travail de plaidoyer pour mettre fin au trafic sexuel d'enfants depuis 2011) appelle le travail d'Apple “un grand pas en avant” pour les efforts visant à éliminer la CSAM.
Je crois en la vie privée – y compris pour les enfants dont les abus sexuels sont documentés et diffusés en ligne sans consentement. Ces efforts annoncés par @Apple sont une avancée majeure dans la lutte pour éliminer le CSAM d'Internet. https://t.co/TQIxHlu4EX
— ashton kutcher (@aplusk) 5 août 2021