Incidents associés

Ces dernières années, les plateformes de médias sociaux ont supprimé plus souvent et plus rapidement du contenu en ligne, souvent en réponse aux demandes des gouvernements, mais d'une manière qui empêche l'utilisation de ce contenu pour enquêter sur des personnes soupçonnées d'être impliquées dans des crimes graves, y compris crimes de guerre. Bien qu'il soit compréhensible que ces plateformes suppriment le contenu qui incite ou encourage la violence, elles n'archivent pas actuellement ce matériel d'une manière accessible aux enquêteurs et aux chercheurs pour aider à tenir les auteurs responsables.
Le contenu des médias sociaux, en particulier les photographies et les vidéos, publié par les auteurs, les victimes et les témoins d'abus, ainsi que d'autres, est devenu de plus en plus central dans certaines poursuites pour crimes de guerre et autres crimes internationaux, notamment devant la Cour pénale internationale (CPI) et en procédures nationales en Europe. Ce contenu aide également les médias et la société civile à documenter les atrocités et autres abus, tels que les attaques aux armes chimiques en Syrie, la répression des forces de sécurité au Soudan et les abus de la police aux États-Unis.
Pourtant, les entreprises de médias sociaux ont intensifié leurs efforts pour supprimer définitivement de leurs plateformes les publications qu'elles considèrent comme enfreignant leurs règles, ou les directives ou normes communautaires selon leurs conditions d'utilisation, y compris le contenu qu'elles considèrent comme du "contenu terroriste et extrémiste violent" (TVEC) , discours de haine, haine organisée, comportement haineux et menaces violentes. Selon les entreprises, elles suppriment non seulement le matériel que les modérateurs de contenu classent pour suppression. De plus en plus, ils utilisent également des algorithmes pour identifier et supprimer le contenu si rapidement qu'aucun utilisateur ne le voit avant qu'il ne soit supprimé. De plus, certaines plateformes ont des filtres pour empêcher le contenu identifié comme TVEC et d'autres contenus pertinents d'être téléchargés en premier lieu. Les gouvernements du monde entier ont encouragé cette tendance, appelant les entreprises à supprimer le contenu le plus rapidement possible, en particulier depuis mars 2019, lorsqu'un homme armé a diffusé en direct son attaque contre deux mosquées à Christchurch, en Nouvelle-Zélande, qui a tué 51 personnes et en a blessé 49 autres.
Les entreprises ont le droit de supprimer rapidement les contenus susceptibles d'inciter à la violence, de porter atteinte à des personnes ou de compromettre la sécurité nationale ou l'ordre public. Mais les entreprises de médias sociaux n'ont pas mis en place de mécanismes pour garantir que le contenu qu'elles suppriment est préservé, archivé et mis à la disposition des enquêteurs criminels internationaux. Dans la plupart des pays, les responsables nationaux de l'application des lois peuvent contraindre les entreprises à remettre le contenu au moyen de mandats, d'assignations à comparaître et d'ordonnances judiciaires, mais les enquêteurs internationaux ont une capacité limitée à accéder au contenu car ils n'ont pas de pouvoirs et de réputation en matière d'application de la loi.
Les responsables de l'application des lois et d'autres personnes risquent également de manquer d'informations et de preuves importantes qui auraient traditionnellement été du domaine public, car des systèmes d'intelligence artificielle de plus en plus sophistiqués suppriment le contenu avant qu'aucun d'entre eux n'ait la possibilité de le voir ou même de savoir qu'il existe. . Il n'y a aucun moyen de savoir combien de preuves potentielles de crimes graves disparaissent à l'insu de quiconque.
Les organisations indépendantes de la société civile et les journalistes ont joué un rôle essentiel dans la documentation des atrocités commises en Irak, au Myanmar, en Syrie, au Yémen, au Soudan, aux États-Unis et ailleurs - souvent lorsqu'aucun acteur judiciaire ne menait d'enquête. Dans certains cas, la documentation des organisations et des médias a ensuite déclenché des poursuites judiciaires. Cependant, ils n'ont pas non plus la possibilité d'accéder au contenu supprimé. L'accès à ce contenu par des membres du public doit faire l'objet d'un examen attentif, et sa suppression peut être appropriée dans certains cas. Mais lorsque le contenu est définitivement supprimé et que les enquêteurs n'ont aucun moyen d'y accéder, cela pourrait entraver d'importants efforts de responsabilisation.
Les entreprises ont répondu à certaines demandes d'accès au contenu de la société civile soit en reconsidérant son retrait et en le republiant, soit en disant qu'il est illégal pour elles de partager le contenu avec qui que ce soit. Human Rights Watch n'a connaissance d'aucun cas où des entreprises auraient accepté de fournir à la société civile indépendante et aux journalistes un accès à ce contenu s'il n'était pas republié.
On ne sait pas combien de temps les sociétés de médias sociaux conservent le contenu qu'elles suppriment de leurs plateformes avant de le supprimer de leurs serveurs ou même si le contenu est, en fait, jamais supprimé de leurs serveurs. Facebook déclare qu'à la réception d'une demande valide, il conservera le contenu pendant 90 jours après sa suppression, "en attendant que nous recevions une procédure judiciaire officielle". Human Rights Watch a cependant connaissance de cas dans lesquels Facebook a conservé sur ses serveurs du contenu supprimé pendant des périodes bien supérieures à 90 jours après la suppression. Dans un e-mail adressé à Human Rights Watch le 13 août, un représentant de Facebook a déclaré : « En raison des restrictions législatives sur la conservation des données, nous ne sommes autorisés à conserver le contenu que pendant un certain temps avant de le supprimer de nos serveurs. Ce délai varie en fonction du type d'abus… la conservation de ces données pour toute période supplémentaire peut être demandée via une demande de conservation des forces de l'ordre.
Dans un e-mail adressé à Human Rights Watch le 4 août, Twitter a déclaré qu'il "conserve différents types d'informations pendant différentes durées, et conformément à nos conditions d'utilisation et à notre politique de confidentialité". Dans au moins un cas dont Human Rights Watch a connaissance, YouTube a restauré du contenu deux ans après l'avoir supprimé.
Tenir des individus responsables de crimes graves peut contribuer à dissuader de futures violations et promouvoir le respect de l'État de droit. La justice pénale aide également à restaurer la dignité des victimes en reconnaissant leurs souffrances et en aidant à créer un dossier historique qui protège contre le révisionnisme de ceux qui chercheront à nier que des atrocités se sont produites.
Cependant, tant au niveau national qu'international, les victimes de crimes graves sont souvent confrontées à une bataille difficile lorsqu'elles cherchent à rendre des comptes, en particulier dans les situations de conflit en cours. Les enquêtes criminelles commencent parfois des années après que les abus allégués ont été commis. Il est probable qu'au moment où ces enquêtes auront lieu, le contenu des médias sociaux à valeur probante aura été retiré bien avant, ce qui rend d'autant plus importante la bonne conservation de ce contenu, conformément aux normes qui seraient acceptées devant les tribunaux.
Le droit international oblige les pays à poursuivre les génocides, les crimes contre l'humanité et les crimes de guerre. Conformément à un groupe d'organisations de la société civile qui collaborent avec des entreprises de médias sociaux pour améliorer la transparence et la responsabilité concernant les retraits de contenu depuis 2017, Human Rights Watch exhorte toutes les parties prenantes, y compris les plateformes de médias sociaux, à s'engager dans une consultation pour développer un mécanisme de préserver les preuves potentielles de crimes graves et veiller à ce qu'elles soient disponibles pour soutenir les enquêtes nationales et internationales, ainsi que les efforts de documentation des organisations de la société civile, des journalistes et des universitaires.
Le mécanisme aux États-Unis pour préserver les preuves potentielles d'exploitation sexuelle d'enfants publiées en ligne fournit des leçons importantes sur la façon dont un tel mécanisme pourrait fonctionner. Les sociétés enregistrées aux États-Unis exploitant des plateformes de médias sociaux sont tenues de supprimer le contenu qui montre l'exploitation sexuelle d'enfants, mais aussi de le conserver sur leurs plateformes pendant 90 jours et de partager une copie du contenu, ainsi que toutes les métadonnées pertinentes, par exemple, le nom de l'auteur du contenu, de la date de sa création, de l'emplacement et des données de l'utilisateur, avec le National Center for Missing and Exploited Children (NCMEC). Le NCMEC, une organisation privée à but non lucratif, a un droit légal désigné par le gouvernement fédéral de posséder ce matériel indéfiniment et, à son tour, informe les forces de l'ordre locales et internationales du contenu pertinent qui pourrait justifier des poursuites.
Un mécanisme pour préserver le contenu publié publiquement qui est une preuve potentielle de crimes graves pourrait être établi en collaboration avec une organisation indépendante qui serait chargée de stocker le matériel et de le partager avec les acteurs concernés. Un rapport à paraître du Human Rights Center de l'Université de Californie à Berkeley, « Digital, Lockers : Options for Archiving Social Media Evidence of Atrocity Crimes », étudie les modèles d'archivage possibles pour cela, créant une typologie de cinq modèles d'archives et évaluant forces et faiblesses de chacun.
Parallèlement à ces efforts, les plateformes de médias sociaux devraient être plus transparentes quant à leurs mécanismes de retrait existants, notamment grâce à l'utilisation accrue d'algorithmes, et veiller à ce qu'ils ne soient pas trop larges ou biaisés et offrent des opportunités significatives de faire appel aux retraits de contenu.