Comment Instagram peut aller encore plus loin dans son travail de sécurité des enfants

[ad_1]

En mai, j’ai écrit ici que le problème de la sécurité des enfants sur les plateformes technologiques est pire que ce que nous savions. Une étude inquiétante de l’organisation à but non lucratif Thorn a révélé que la majorité des enfants américains utilisaient des applications des années avant qu’ils ne soient censés l’être – et un quart d’entre eux ont déclaré avoir eu des interactions sexuellement explicites avec des adultes. Cela oblige les plateformes à faire un meilleur travail à la fois pour identifier les enfants utilisateurs de leurs services et pour les protéger des abus qu’ils pourraient y trouver.

Instagram a maintenant pris des mesures prometteuses dans cette direction. Hier, l’entreprise a déclaré qu’elle :

  • Rendre les comptes privés par défaut pour les enfants de 16 ans et moins
  • Cachez les comptes des adolescents aux adultes qui ont adopté un comportement suspect, comme le fait d’être bloqué à plusieurs reprises par d’autres enfants
  • Empêchez les annonceurs de cibler les enfants avec des publicités basées sur les centres d’intérêt. (Il y avait des preuves que des publicités pour le tabagisme, la perte de poids et le jeu étaient toutes montrées aux adolescents)
  • Développer des outils d’IA pour empêcher les utilisateurs mineurs de s’inscrire, supprimer les comptes existants des enfants de moins de 13 ans et créer de nouvelles méthodes de vérification de l’âge

La société a également réitéré son projet de créer une version pour enfants d’Instagram, qui a suscité les condamnations de … beaucoup de gens.

De toute évidence, une partie de cela tombe dans « attendez, ils ne le faisaient pas déjà ? » territoire. Et la main d’Instagram a sans doute été forcée par un examen minutieux de la façon dont les enfants sont intimidés sur l’application, en particulier au Royaume-Uni. Mais comme l’a montré le rapport Thorn, la plupart des plates-formes ont fait très peu pour identifier ou supprimer les utilisateurs mineurs – c’est un travail techniquement difficile, et vous avez l’impression que certaines plates-formes ont l’impression qu’il vaut mieux ne pas savoir.

Félicitations donc à Instagram pour avoir pris le défi au sérieux et pour avoir construit des systèmes pour le relever. Voici Olivia Solon de NBC News en train de parler à la responsable des politiques publiques d’Instagram, Karina Newton (aucune relation), de ce que l’entreprise est en train de construire :

« Comprendre l’âge des gens sur Internet est un défi complexe », a déclaré Newton. « La collecte des pièces d’identité des personnes n’est pas la réponse au problème car ce n’est pas une solution juste et équitable. L’accès dépend grandement de l’endroit où vous habitez et de votre âge. Et les gens ne veulent pas nécessairement donner leurs identifiants aux services Internet.

Newton a déclaré qu’Instagram utilisait l’intelligence artificielle pour mieux comprendre l’âge en recherchant des signaux textuels, tels que des commentaires sur les anniversaires des utilisateurs. La technologie n’essaie pas de déterminer l’âge en analysant les visages des personnes sur les photos, a-t-elle déclaré.

Dans le même temps, il est toujours embarrassant pour les journalistes d’identifier les problèmes de sécurité sur la plate-forme avec une poignée de recherches simples. Voici Jeff Horwitz aujourd’hui dans Le journal de Wall Street:

Une revue de fin de semaine par Le journal de Wall Street des systèmes actuels de recommandation et d’application basés sur l’IA d’Instagram ont mis en évidence les défis auxquels son approche automatisée est confrontée. Invité par le hashtag #preteen, Instagram recommandait des publications étiquetées #preteenmodel et #preteenfeet, qui comportaient toutes deux des commentaires parfois graphiques de ce qui semblait être des utilisateurs masculins adultes sur des photos mettant en scène des jeunes filles.

Instagram a supprimé ces deux derniers hashtags de sa fonction de recherche à la suite de requêtes du Journal et a déclaré que les commentaires inappropriés montraient pourquoi il avait commencé à chercher à empêcher les comptes adultes suspects d’interagir avec des mineurs.

Mis à part les hashtags problématiques, la chose la plus importante qu’Instagram fait pour la sécurité des enfants est d’arrêter de prétendre que les enfants n’utilisent pas leur service. Dans trop de services, cette vue est toujours la valeur par défaut – et elle a créé des angles morts dans lesquels les enfants et les prédateurs peuvent trop facilement naviguer. Instagram a maintenant identifié certains d’entre eux et s’est publiquement engagé à les éliminer. J’aimerais voir d’autres plates-formes emboîter le pas ici – et si elles ne le font pas, elles devraient être prêtes à expliquer pourquoi.

Bien sûr, j’aimerais aussi voir Instagram en faire plus. Si la première étape pour les plates-formes est de reconnaître qu’elles ont des utilisateurs mineurs, la deuxième étape consiste à leur mettre en place des protections supplémentaires, qui vont au-delà de leur sécurité physique et émotionnelle. Des études ont montré, par exemple, que les adolescents sont plus crédules et susceptibles de croire à de fausses histoires que les adultes, et qu’ils peuvent être plus susceptibles de répandre de la désinformation. (Cela pourrait expliquer pourquoi TikTok est devenu un foyer populaire pour les théories du complot.)

En supposant que ce soit le cas, une plate-forme vraiment sûre pour les jeunes investirait également dans la santé de son environnement d’information. En prime, un environnement d’information plus sain serait meilleur pour les adultes et notre démocratie aussi.

« Lorsque vous construisez pour le maillon le plus faible, ou que vous construisez pour les plus vulnérables, vous améliorez ce que vous construisez pour chaque personne », m’a dit Julie Cordua, PDG de Thorn, en mai. En reconnaissant la réalité – et en construisant pour le maillon le plus faible – Instagram donne le bon exemple à ses pairs.

En espérant qu’ils emboîtent le pas – et aillent plus loin.


Cette chronique a été coéditée avec Plateforme, une newsletter quotidienne sur la Big Tech et la démocratie.


[ad_2]

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

*