En mai, j'ai écrit ici que le problème de sécurité des enfants sur les plateformes technologiques est pire que ce que nous savions. Une étude inquiétante de l'organisation à but non lucratif Thorn a révélé que la majorité des enfants américains utilisaient des applications des années avant qu'ils ne soient censés l'être – et un quart d'entre eux ont déclaré avoir eu des interactions sexuellement explicites avec des adultes. Cela oblige les plateformes à faire un meilleur travail à la fois pour identifier les enfants utilisateurs de leurs services et pour les protéger des abus qu'ils pourraient y trouver.
Instagram a maintenant pris des mesures prometteuses dans cette direction. Hier, la société a annoncé qu'elle :
- Rendre les comptes privés par défaut pour les enfants de 16 ans et moins
- Masquer les comptes des adolescents d'adultes qui ont adopté un comportement suspect, comme le fait d'être bloqué à plusieurs reprises par d'autres enfants
- Empêchez les annonceurs de cibler les enfants avec des publicités basées sur les centres d'intérêt. (Il a été prouvé que des publicités pour le tabagisme, la perte de poids et le jeu étaient toutes diffusées auprès des adolescents)
- Développer des outils d'IA pour empêcher les utilisateurs mineurs de s'inscrire, supprimer les comptes existants des enfants de moins de 13 ans , et créer de nouvelles méthodes de vérification de l'âge
La société a également réitéré son projet de créer une version pour enfants d'Instagram, qui a suscité les condamnations de … beaucoup de gens.< /p>La plupart des plates-formes ont fait très peu pour identifier ou supprimer les utilisateurs mineurs
De toute évidence, une partie de cela tombe dans « attendez, ils ne le faisaient pas déjà ? » territoire. Et la main d'Instagram a sans doute été forcée par un examen minutieux de la façon dont les enfants sont victimes d'intimidation sur l'application, en particulier au Royaume-Uni. Mais comme l'a montré le rapport Thorn, la plupart des plates-formes ont fait très peu pour identifier ou supprimer les utilisateurs mineurs – c'est un travail techniquement difficile, et vous avez l'impression que certaines plates-formes ont l'impression qu'il vaut mieux ne pas savoir.
Félicitations donc à Instagram pour avoir pris le défi au sérieux et pour avoir construit des systèmes pour le relever. Voici Olivia Solon de NBC News en train de parler à la responsable des politiques publiques d'Instagram, Karina Newton (aucune relation), de ce que l'entreprise est en train de construire :
“Comprendre l'âge des gens sur Internet est un défi complexe”, a déclaré Newton. « La collecte des pièces d'identité des personnes n'est pas la réponse au problème car ce n'est pas une solution juste et équitable. L'accès dépend grandement de l'endroit où vous habitez et de votre âge. Et les gens ne veulent pas nécessairement donner leurs identifiants aux services Internet.”
Newton a déclaré qu'Instagram utilisait l'intelligence artificielle pour mieux comprendre l'âge en recherchant des signaux textuels, tels que des commentaires sur les anniversaires des utilisateurs. La technologie n'essaie pas de déterminer l'âge en analysant les visages des personnes sur les photos, a-t-elle déclaré.
Dans le même temps, il est toujours embarrassant pour les journalistes d'identifier les problèmes de sécurité sur la plate-forme avec une poignée de recherches simples. Voici Jeff Horwitz aujourd'hui dans le Wall Street Journal :
Un examen du week-end par le Wall Street Journal des systèmes actuels de recommandation et d'application basés sur l'IA d'Instagram a mis en évidence les défis auxquels son approche automatisée est confrontée. Invité avec le hashtag #preteen, Instagram recommandait des publications étiquetées #preteenmodel et #preteenfeet, qui comportaient toutes deux des commentaires parfois graphiques de ce qui semblait être des utilisateurs masculins adultes sur des photos mettant en scène des jeunes filles.
« Invitée par le hashtag #preteen, Instagram recommandait les publications étiquetées #preteenmodel et #preteenfeet, qui comportaient toutes deux des commentaires parfois graphiques de ce qui semblait être des utilisateurs masculins adultes sur des photos mettant en scène de jeunes filles. “https://t.co/HRclDZnNBp
— Jeff Horwitz (@JeffHorwitz) 27 juillet 2021
Instagram a supprimé ces deux derniers hashtags de sa fonction de recherche à la suite de requêtes du Journal et a déclaré que les commentaires inappropriés montraient pourquoi il avait commencé à chercher à empêcher les comptes adultes suspects d'interagir avec des mineurs.
Mis à part les hashtags problématiques, la chose la plus importante que fait Instagram pour la sécurité des enfants est d'arrêter de prétendre que les enfants n'utilisent pas leur service. Dans trop de services, cette vue est toujours la valeur par défaut – et elle a créé des angles morts dans lesquels les enfants et les prédateurs peuvent trop facilement naviguer. Instagram a maintenant identifié certains d'entre eux et s'est publiquement engagé à les éliminer. J'adorerais voir d'autres plateformes emboîter le pas ici – et si elles ne le font pas, elles devraient être prêtes à expliquer pourquoi.
La chose la plus importante que fait Instagram : arrêter de prétendre que les enfants n'utilisent pas leur service
Bien sûr, j'aimerais aussi voir Instagram en faire plus. Si la première étape pour les plates-formes est de reconnaître qu'elles ont des utilisateurs mineurs, la deuxième étape consiste à leur mettre en place des protections supplémentaires, qui vont au-delà de leur sécurité physique et émotionnelle. Des études ont montré, par exemple, que les adolescents sont plus crédules et susceptibles de croire à de fausses histoires que les adultes, et qu'ils peuvent être plus susceptibles de répandre de la désinformation. (Cela pourrait expliquer pourquoi TikTok est devenu un foyer populaire pour les théories du complot.)
En supposant que ce soit le cas, une plate-forme vraiment sûre pour les jeunes investirait également dans la santé de ses environnement informationnel. En prime, un environnement d'information plus sain serait meilleur pour les adultes et notre démocratie aussi.
« Quand vous construisez pour le maillon le plus faible, ou que vous construisez pour les plus vulnérables, vous vous améliorez ce que vous construisez pour chaque personne », m'a dit Julie Cordua, PDG de Thorn, en mai. En reconnaissant la réalité – et en construisant pour le maillon le plus faible – Instagram donne le bon exemple à ses pairs.
J'espère qu'ils emboîteront le pas – et iront plus loin.
Cette chronique a été co-publiée avec Platformer, une newsletter quotidienne sur les Big Tech et la démocratie.