Le Conseil de surveillance sonne l’alarme sur le rôle de Facebook dans le conflit éthiopien

[ad_1]

Le Conseil de surveillance mis en place par Facebook a publié aujourd’hui une décision appelant la plateforme à commencer une évaluation indépendante du rôle de la plateforme dans l’augmentation du risque de violence en Éthiopie, dans le cadre d’une décision plus spécifique sur un article faisant des allégations infondées sur les civils tigréens. .

Cette décision intervient un an après le début d’une guerre civile entre le gouvernement éthiopien et les rebelles dans la région du nord du Tigré, qui a créé une crise humanitaire qui a laissé des centaines de milliers de personnes confrontées à des conditions de famine et chassé des millions de leurs foyers.

Facebook a été critiqué pour son rôle dans le conflit éthiopien, des observateurs faisant des parallèles avec le rôle de l’entreprise dans le génocide des musulmans Rohingyas au Myanmar. Là-bas, une campagne en ligne menée par des militaires du Myanmar a attisé la haine contre les groupes minoritaires Rohingya et a conduit à des actes de meurtre de masse et de nettoyage ethnique. En Éthiopie, des rumeurs similaires et des incitations à la violence ont pu proliférer, malgré le fait que de nombreux employés de Facebook auraient sonné l’alarme au sein de l’entreprise.

Le manque d’action de Facebook a apparemment été reconnu par le Conseil de surveillance. Il a recommandé à Meta de « commander une évaluation indépendante de la diligence raisonnable en matière de droits humains sur la façon dont Facebook et Instagram ont été utilisés pour diffuser des discours de haine et des rumeurs non vérifiées qui augmentent le risque de violence en Éthiopie » et d’ajouter des conseils spécifiques sur les rumeurs pendant la guerre et les conflits à sa communauté. Normes.

« Conformément à la décision contraignante du conseil d’administration, nous avons supprimé le contenu de l’affaire », a déclaré le porte-parole de Facebook, Jeffrey Gelman, dans un communiqué. « Nous examinons l’intégralité de la décision et des recommandations du conseil d’administration, et conformément aux statuts, nous répondrons dans les 30 jours. »

Le contenu au cœur de la décision était un message en amharique qui a été téléchargé sur la plate-forme en juillet 2021 et affirmait sans preuve que le Front populaire de libération du Tigré (TPLF) avait tué et violé des femmes et des enfants dans la région éthiopienne d’Amhara avec l’aide de civils tigréens.

Une fois que le message a été signalé par des systèmes de détection de langue automatisés, une décision initiale a été prise par un modérateur humain pour le supprimer. L’utilisateur qui avait publié le contenu a fait appel de la décision, mais un deuxième modérateur de contenu a confirmé qu’il enfreignait les normes communautaires de Facebook. L’utilisateur a alors introduit un recours auprès du Conseil de surveillance, qui a accepté de réexaminer le dossier.

En fin de compte, le Conseil a constaté que le contenu violait la norme communautaire de Facebook sur la violence et l’incitation, et il a confirmé que la décision de le supprimer était correcte. Le Conseil a également critiqué le choix de Meta de restaurer le contenu avant qu’une décision finale ne soit prise.

[ad_2]

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

*