Incidents associés

Les plateformes de médias sociaux suppriment les contenus en ligne qu'ils considèrent comme terroristes, violemment extrémistes ou haineux d'une manière qui empêche leur utilisation potentielle pour enquêter sur des crimes graves, y compris des crimes de guerre, a déclaré Human Rights Watch dans un rapport publié aujourd'hui. Bien qu'il soit compréhensible que ces plateformes suppriment le contenu qui incite ou encourage la violence, elles doivent s'assurer que ce matériel est archivé afin qu'il puisse éventuellement être utilisé pour demander des comptes aux responsables.
Le rapport de 42 pages, "'Video Unavailable': Social Media Platforms Remove Evidence of War Crimes", exhorte toutes les parties prenantes, y compris les plateformes de médias sociaux, à venir ensemble pour développer un mécanisme indépendant afin de préserver les preuves potentielles de crimes graves. Ils doivent s'assurer que le contenu est disponible pour soutenir les enquêtes nationales et internationales, ainsi que les recherches menées par des organisations non gouvernementales, des journalistes et des universitaires. Les groupes de défense des droits ont [exhorté](https ://www.hrw.org/news/2020/07/30/joint-letter-new-executive-director-global-internet-forum-counter-terrorism) entreprises de médias sociaux depuis 2017 pour [améliorer la transparence](https: //cdt.org/insights/takedown-collaboration-by-private-companies-creates-troubling-precedent/) et [accountability](https://blog.witness.org/2020/07/witness-joins-14- organizations-to-urge-gifct-to-respect-human-rights/) autour des retraits de contenu.
"Certains des contenus que Facebook, YouTube et d'autres plateformes suppriment ont une valeur cruciale et irremplaçable en tant que preuves d'atrocités contre les droits de l'homme", a déclaré [Belkis Wille](https://www.hrw.org/about/people/belkis -wille), chercheur principal sur les crises et les conflits à Human Rights Watch. "Les procureurs, les chercheurs et les journalistes s'appuyant de plus en plus sur des photographies et des vidéos publiées publiquement sur les réseaux sociaux, ces plateformes devraient faire davantage pour s'assurer qu'elles peuvent avoir accès à des preuves potentielles de crimes graves."
Le contenu des médias sociaux, en particulier les photographies et les vidéos, publiées par les auteurs, les victimes et les témoins d'abus, est devenu de plus en plus central dans certaines [poursuites de crimes de guerre](https://english.alaraby.co.uk/english/fullimage/eff18e9b -7920-4da1-9f9f-e242fc02290f/e59adf51-6a6d-408f-b10b-8573ab87d8e0) et d'autres crimes graves, notamment devant la [Cour pénale internationale (CPI)](http://opiniojuris.org/2017/08/17/ and-so-it-begins-social-media-evidence-in-an-icc-arrest-warrant/) et [procédures nationales](https://uitspraken.rechtspraak.nl/inziendocument?id=ECLI:NL:RBDHA :2019:10647) en Europe. Ce contenu aide également les médias et la [société civile](https://theintercept .com/2017/11/02/war-crimes-youtube-facebook-syria-rohingya/) documenter les atrocités et autres abus, comme les [attaques] aux armes chimiques (https://www.hrw.org/news/2018 /04/04/syria-year-chemical-weapons-attacks-persist) en Syrie, une force de sécurité [répression](https://www.hrw.org/report/2019/11/18/they-were-shouting -kill-them/sudans-violent-crackdown-protesters-khartoum) au Soudan, et la police [abus](https://www.hrw.org/news/2020/06/17/police-targeting-street-medics- us-protests) aux États-Unis.
Pour ce rapport, Human Rights Watch a interrogé sept personnes qui travaillent dans des organisations de la société civile, trois avocats, deux archivistes, un statisticien, deux journalistes, un ancien procureur ayant une expérience dans des tribunaux internationaux, cinq personnes dans le cadre d'enquêtes mandatées au niveau international, trois agents nationaux chargés de l'application des lois. , un fonctionnaire de l'Union européenne et un membre du Parlement européen. Il a également examiné le contenu de Facebook, Twitter et YouTube que Human Rights Watch a cité dans ses rapports pour étayer les allégations d'abus depuis 2007. Sur un total de 5 396 éléments de contenu référencés dans 4 739 rapports - dont la grande majorité ont été publiés au cours des cinq dernières années -, il a constaté que 619 (ou 11 pour cent) avaient été supprimés. Dans des lettres à Facebook, Twitter et Google envoyées en mai 2020, Human Rights Watch a partagé les liens vers ce contenu qui avait été supprimé et a demandé aux entreprises si Human Rights Watch pouvait retrouver l'accès à des fins d'archivage, une demande qui n'a pas été accordée. Ces dernières années, les sociétés de médias sociaux, notamment Facebook, YouTube et Twitter, ont intensifié leurs efforts pour mettre hors ligne les publications de leurs plateformes qu'elles considèrent comme enfreignant leurs règles, les directives de la communauté ou les normes conformément à leurs conditions d'utilisation. Cela inclut le contenu qu'ils considèrent comme terroriste ou extrémiste violent, les discours de haine, la haine organisée, les comportements haineux et les menaces violentes.
Les entreprises suppriment les messages signalés par les utilisateurs et les modérateurs de contenu examinent. Mais de plus en plus, ils utilisent également des algorithmes pour identifier et supprimer les messages incriminés, dans certains cas si rapidement qu'aucun l'utilisateur voit le contenu avant qu'il ne soit retiré. Les gouvernements du monde entier ont encouragé cette tendance, appelant les entreprises à supprimer les contenus dangereux aussi vite que possible. On ne sait pas si et pendant combien de temps les sociétés de médias sociaux stockent divers types de contenu qu'elles retirent ou bloquent de leurs sites.
Les entreprises ont raison de mettre rapidement hors ligne les contenus susceptibles d'inciter à la violence, de nuire à des personnes ou de compromettre la sécurité nationale ou l'ordre public, tant que les normes qu'elles appliquent sont conformes aux droits humains internationaux et aux principes d'une procédure régulière. Cependant, la suppression permanente de ce contenu peut le rendre inaccessible et entraver d'importants efforts en matière de responsabilité pénale.
Aucun mécanisme n'existe encore pour conserver et archiver les démantèlements des médias sociaux qui pourraient fournir des preuves cruciales d'abus, et encore moins pour garantir l'accès à ceux qui enquêtent sur les crimes internationaux. Dans la plupart des pays, les responsables nationaux de l'application des lois peuvent obliger les sociétés de médias sociaux à remettre le contenu au moyen de mandats, d'assignations à comparaître et de procédures judiciaires. ordonnances, mais les enquêteurs internationaux ont une capacité limitée à accéder au contenu car ils manquent de pouvoirs et de réputation en matière d'application de la loi.
Les organisations indépendantes et les journalistes ont joué un rôle essentiel dans la documentation des atrocités dans le monde, souvent lorsqu'aucun organe judiciaire ne menait d'enquête. Dans certains cas, cette documentation a déclenché [des poursuites judiciaires](https://www.theguardian.com/law/2019/jun/20/uk-arms-sales-to-saudi-arabia-for-use-in-yemen -déclarée-illégale). Cependant, ils n'ont pas non plus la possibilité d'accéder au contenu supprimé et, comme les enquêteurs officiels, ne seront pas informés du retrait matériel des systèmes d'intelligence artificielle avant que quiconque ne le visualise.
Un officier européen des forces de l'ordre enquêtant sur des crimes de guerre a déclaré à Human Rights Watch que « le contenu retiré fait désormais partie de mon expérience professionnelle au quotidien. Je suis constamment confronté à d'éventuelles preuves cruciales qui ne me sont plus accessibles. Tenir des individus responsables de crimes graves peut contribuer à dissuader de futures violations et promouvoir le respect de l'État de droit, a déclaré Human Rights Watch. Les efforts de justice pénale peuvent également aider à restaurer la dignité des victimes en reconnaissant leurs souffrances et en aidant à créer un dossier historique qui protège contre le révisionnisme de ceux qui nient que des atrocités se soient produites. Le droit international oblige les pays à poursuivre les génocides, les crimes contre l'humanité et les crimes de guerre. Il est essentiel que les entreprises de médias sociaux et toutes les parties prenantes concernées élaborent conjointement un plan pour établir un mécanisme indépendant chargé d'assumer le rôle de liaison avec les plateformes de médias sociaux et de préserver ce contenu. L'archive devrait être responsable du tri et de l'accès au contenu à des fins de recherche et d'investigation, conformément aux droits de l'homme et aux normes de confidentialité des données.
Parallèlement à ces efforts, les plateformes de médias sociaux devraient être plus transparentes sur leurs procédures de retrait existantes, notamment grâce à l'utilisation accrue d'algorithmes, a déclaré Human Rights Watch. Ils doivent s'assurer que leurs propres systèmes ne sont pas [trop étendus](https://www.Reuters.com/article/us-global-socialmedia-rights-trfn/lost-memories-war-crimes-evidence-threatened-by- ai-moderation-idUSKBN23Q2TO) ou biaisé et qu'ils offrent des possibilités significatives de faire appel de la suppression de contenu.
"Nous sommes conscients que la tâche qui attend les entreprises de médias sociaux n'est pas facile, y compris trouver le juste équilibre entre la protection de la liberté d'expression et de la vie privée, et la suppression de contenus pouvant causer de graves dommages", a déclaré Wille. "Des consultations qui s'appuient sur les expériences d'autres archives historiques pourraient conduire à une véritable percée et aider les plateformes à protéger la liberté d'expression et la sécurité publique, tout en garantissant que les efforts de responsabilisation ne sont pas entravés."