Meta crée un outil pour arrêter la propagation du «porn vengeance»

[ad_1]

La société mère de Facebook, Meta, a travaillé avec la Revenge Porn Helpline à but non lucratif basée au Royaume-Uni pour créer un outil qui permet aux gens d’empêcher que leurs images intimes ne soient téléchargées sur Facebook, Instagram et d’autres plateformes participantes sans leur consentement.

L’outil, qui s’appuie sur un programme pilote lancé par Facebook en Australie en 2017, a été lancé jeudi. Il permet aux personnes qui craignent que leurs photos ou vidéos intimes aient été ou pourraient être partagées en ligne, par exemple par d’anciens partenaires mécontents, de soumettre les images à un site Web mondial central appelé StopNCII.org, qui signifie « Stop Non- Images intimes consensuelles.

« C’est un énorme pas en avant », a déclaré Sophie Mortimer, responsable de la ligne d’assistance. « La clé pour moi est de remettre ce contrôle sur le contenu entre les mains des personnes directement touchées par ce problème afin qu’elles ne soient pas laissées aux caprices d’un auteur menaçant de le partager. »

Karuna Nain, directrice de la politique de sécurité mondiale de Meta, a déclaré que l’entreprise avait modifié son approche pour utiliser un site Web indépendant afin de faciliter l’utilisation du système par d’autres entreprises et de réduire le fardeau pour les victimes d’abus d’images de signaler le contenu à « chaque plate-forme. »

Au cours du processus de soumission, StopNCII.org obtient le consentement et demande aux gens de confirmer qu’ils sont dans une image. Les gens peuvent sélectionner du matériel sur leurs appareils, y compris des images manipulées, qui les représentent nus ou presque nus. Les photos ou les vidéos seront ensuite converties en empreintes digitales uniques appelées « hachages », qui seront transmises aux entreprises participantes, à commencer par Facebook et Instagram.

StopNCII.org, qui a été développé en consultation avec 50 partenaires mondiaux spécialisés dans les abus basés sur l’image, la sécurité en ligne et les droits des femmes, n’aura pas accès ou ne stockera pas de copies des images originales. Au lieu de cela, ils seront convertis en hachages dans les navigateurs des utilisateurs, et StopNCII.org n’obtiendra que les copies hachées.

D’autres grandes plateformes ont exprimé leur intérêt à rejoindre l’initiative, notamment des sociétés de médias sociaux, des sites pour adultes et des babillards électroniques, a déclaré Mortimer, bien qu’ils ne soient pas encore prêts à annoncer leur participation au programme.

« Il est essentiel d’avoir un système ouvert à tous les secteurs de l’industrie », a-t-elle déclaré. « Nous savons que ce matériel n’est pas simplement partagé sur une seule plate-forme et qu’il nécessite une approche beaucoup plus commune. »

Chaque entreprise participante utiliserait une technologie de correspondance de hachage pour vérifier si des images correspondant aux hachages avaient été téléchargées sur leurs plateformes. S’ils détectaient des correspondances, les modérateurs de contenu sur les plateformes examineraient les images pour s’assurer qu’elles enfreignaient leurs politiques et que l’outil n’avait pas été utilisé à mauvais escient par une personne soumettant un autre type d’image non-violante. Si les plateformes déterminaient que les images ou les vidéos enfreignaient leurs politiques, elles en supprimeraient toutes les instances et bloqueraient les tentatives de les télécharger à nouveau.

Dans le projet pilote de Facebook en 2017, les images ont été examinées par des modérateurs humains au moment de la soumission et converties en hachages, ce qui a suscité certaines critiques concernant les problèmes de confidentialité dans les rapports des médias.

Depuis le pilote de 2017, Facebook a développé d’autres systèmes pour lutter contre la NCII sur la plate-forme, a rapporté Avresco News en novembre 2019. Cependant, à l’époque, la responsable de la sécurité de l’entreprise, Antigone Davis, a déclaré qu’une plus grande collaboration avec d’autres sociétés technologiques était nécessaire pour empêcher les personnes ayant l’intention de partager des images intimes sans le consentement des sujets en passant simplement sur une autre plate-forme.

« Il est important que Facebook et l’industrie reconnaissent qu’ils ne peuvent pas être à l’avant-garde de cela », a déclaré Mortimer, notant que la réputation de l’industrie technologique en matière de « confidentialité et de données personnelles n’est pas ce qu’elles aimeraient qu’elle soit. « 

« Une banque de hachage doit être détenue de manière indépendante dans un espace neutre, et nous avons beaucoup de confiance du public et une expérience de longue date pour aider les personnes touchées par le partage d’images intimes sans consentement », a-t-elle déclaré.

Mortimer a déclaré qu’elle avait applaudi le fait que Meta ait reconnu le problème et était « prêt à investir le financement et l’expertise » pour créer l’outil, puis « s’éloigner ».

Les personnes qui soumettent du matériel à la plate-forme peuvent également suivre leurs cas en temps réel et retirer leur participation à tout moment.

« Vous pouvez voir que vos hachages ont été téléchargés et quand il y a eu une correspondance avec une plate-forme partenaire », a déclaré Mortimer. « Parfois, les clients peuvent vouloir que les images soient retirées mais ne veulent pas connaître les chiffres, mais d’autres ont besoin de connaître de manière obsessionnelle chaque retrait. »

Meta et la Revenge Porn Helpline ont reconnu que les gens pouvaient abuser du système en soumettant des images non-violentes juste pour obtenir des photos prises. Mais Mortimer a déclaré que le processus de révision par les modérateurs de contenu humain devrait signifier que les images non violantes resteraient sur la plate-forme.

Nain, de Meta, a également signalé que le système ne peut détecter que des correspondances d’images exactes, donc si les gens ont des « intentions très flagrantes », ils peuvent apporter de petites modifications aux images ou aux vidéos pour échapper à la détection, créant un jeu frustrant de Whack-a-mole pour les sujets des images.

« Il y a beaucoup de choses que nous devrons surveiller. Comment rendre le système encore plus centré sur les victimes ? Notre travail ne s’arrête pas là », a déclaré Nain.

Bien que l’outil soit soutenu par 50 partenaires mondiaux, il ne sera disponible qu’en anglais au lancement.

[ad_2]

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

*