Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 3906

Incidents associés

Incident 2684 Rapports
Permanent Removal of Social Media Content via Automated Tools Allegedly Prevented Investigative Efforts

Loading...
« Souvenirs perdus » : les preuves de crimes de guerre menacées par la modération de l'IA
reuters.com · 2020

NEW YORK/AMMAN (Fondation Thomson Reuters) - Des attentats à la bombe et des manifestations à l'ouverture d'un nouveau centre de santé, le journaliste étudiant Baraa Razzouk documente depuis des années la vie quotidienne à Idlib, en Syrie, et publie les vidéos sur son compte YouTube.

Mais ce mois-ci, le jeune homme de 21 ans a commencé à recevoir des e-mails automatiques de YouTube l'avertissant que ses vidéos enfreignaient sa politique et qu'elles seraient supprimées. Depuis ce mois-ci, plus d’une douzaine de ses vidéos ont été supprimées, a-t-il déclaré.

"Il est très important de documenter les manifestations (syriennes) dans des vidéos. Il est également important de documenter les attaques des forces du régime", a-t-il déclaré à la Fondation Thomson Reuters lors d'un entretien téléphonique. "C'est quelque chose que j'avais documenté pour le monde entier et qui est maintenant supprimé."

YouTube, Facebook et Twitter ont averti en mars que les vidéos et autres contenus pourraient être supprimés par erreur en cas de violation des politiques, car la pandémie de coronavirus les a forcés à vider leurs bureaux et à s'appuyer sur un logiciel de retrait automatisé.

Mais ces outils basés sur l'IA risquent de confondre les droits de l'homme et la documentation historique comme les vidéos de Razzouk avec des contenus problématiques comme le contenu terroriste - en particulier dans des pays déchirés par la guerre comme la Syrie et le Yémen, ont prévenu les militants des droits numériques.

"L'IA est notoirement aveugle au contexte", a déclaré Jeff Deutch, chercheur pour Syrien Archive, une organisation à but non lucratif qui archive des vidéos des zones de conflit au Moyen-Orient.

"Il est souvent incapable d'évaluer le contexte historique, politique ou linguistique des postes... Les documents sur les droits de l'homme et les propositions extrémistes violentes sont trop souvent indiscernables", a-t-il déclaré lors d'un entretien téléphonique.

Les retraits erronés menacent des contenus tels que des vidéos qui sont utilisées comme preuve formelle de violations des droits par des organismes internationaux tels que la Cour pénale internationale et les Nations Unies, a déclaré Dia Kayyali du groupe de défense des droits numériques Witness.

"C'est une tempête parfaite", a déclaré le coordinateur de la technologie et du plaidoyer.

Après que la Fondation Thomson Reuters ait signalé le compte de Razzouk sur YouTube, un porte-parole a déclaré que la société avait supprimé les vidéos par erreur, bien que cette suppression n'ait pas fait l'objet d'un appel via sa procédure interne. Ils ont désormais restauré 17 des vidéos de Razzouk.

"Avec le volume massif de vidéos sur notre site, nous faisons parfois le mauvais choix", a déclaré le porte-parole dans des commentaires envoyés par courrier électronique. "Lorsque nous apprenons qu'une vidéo a été supprimée par erreur, nous agissons rapidement pour la rétablir."

DÉMONTER

Ces dernières années, les plateformes de médias sociaux ont subi une pression accrue de la part des gouvernements pour qu'ils suppriment rapidement les contenus violents et la désinformation de leurs plateformes, augmentant ainsi leur dépendance aux systèmes d'IA.

Grâce à un logiciel automatisé, YouTube supprime des millions de vidéos par an et Facebook a supprimé plus d'un milliard de comptes l'année dernière pour avoir enfreint des règles telles que la publication de contenus terroristes.

L'année dernière, les sociétés de médias sociaux se sont engagées à bloquer les contenus extrémistes à la suite d'une attaque terroriste diffusée en direct sur Facebook, impliquant un homme armé tuant 51 personnes dans deux mosquées de Christchurch, en Nouvelle-Zélande.

Les gouvernements ont emboîté le pas, le président français Emmanuel Macron s'étant engagé à faire de la France un leader dans la lutte contre la propagation de contenus illicites et de fausses informations sur les plateformes de médias sociaux.

Mais le plus haut tribunal du pays a rejeté cette semaine la majeure partie d'un projet de loi qui aurait obligé les géants des médias sociaux à supprimer tout contenu haineux dans les 24 heures.

Des entreprises comme Facebook se sont également engagées à supprimer les informations erronées sur l’épidémie de coronavirus qui pourraient contribuer à des dommages physiques imminents.

Ces pressions, combinées à un recours accru à l’IA pendant la pandémie, mettent particulièrement en danger les contenus relatifs aux droits humains, a déclaré Kayyali.

CONTENU DE SUIVI

Les entreprises de médias sociaux ne divulguent généralement pas la fréquence à laquelle leurs outils d’IA suppriment par erreur du contenu.

Ainsi, le groupe Syrien Archives a utilisé ses propres données pour évaluer l’évolution au fil du temps du taux de suppression de documents relatifs aux droits de l’homme sur les crimes commis en Syrie, pays frappé par près d’une décennie de guerre.

Le groupe signale les comptes publiant du contenu relatif aux droits humains sur les plateformes de médias sociaux et archive ces publications sur ses serveurs. Pour se rapprocher du taux de suppression, ils exécutent un script pingant la publication d'origine chaque mois pour voir si elle a été supprimée.

« Nos recherches suggèrent que depuis le début de l'année, le taux de retrait de contenus de documentation syrienne sur les droits de l'homme sur YouTube a à peu près doublé (de 13 % à 20 %) », a déclaré Deutch, qualifiant cette augmentation de « sans précédent ».

En mai, les archives syriennes ont détecté que plus de 350 000 vidéos sur YouTube avaient disparu, contre 200 000 en mai 2019, notamment des vidéos d'attaques aériennes, de manifestations et de destruction de maisons de civils en Syrie.

Deutch a déclaré avoir constaté des retraits de contenus dans d'autres pays de la région déchirés par la guerre, notamment au Yémen et au Soudan. "Les utilisateurs des zones de conflit sont plus vulnérables", a-t-il déclaré.

D'autres groupes, dont Amnesty International et Witness, ont mis en garde contre une tendance ailleurs, notamment en Afrique subsaharienne.

Les archives syriennes n'ont pas été en mesure de tester les retraits de Facebook, car les chercheurs extérieurs n'ont pas accès à l'interface de programmation d'applications (API) de la plateforme.

Mais au début du mois, les Syriens ont commencé à utiliser le hashtag « Facebook combat la révolution syrienne » pour signaler des retraits de contenus similaires sur la plateforme.

Le mois dernier, Yahya Daoud, un travailleur humanitaire syrien du groupe d'intervention d'urgence des Casques blancs, a partagé un message et une photo montrant une femme décédée lors d'un massacre en 2012 perpétré par les forces du président syrien Bashar al-Assad dans la région de Houla.

À la fin du mois, Daoud a déclaré que son compte – qu'il utilisait depuis 2011 pour documenter sa vie en Syrie – avait été automatiquement supprimé sans explication. "Je comptais sur Facebook pour me servir d'archives", a-t-il déclaré.

"Tant de souvenirs ont été perdus : la mort de mes amis, le jour où j'ai été déplacé, la mort de ma mère", a-t-il déclaré, ajoutant qu'il avait tenté en vain de faire appel de la décision via le système de plaintes automatisé de Facebook.

Facebook n'a pas répondu aux demandes de commentaires.

« NOUS NE LES ENTENDONS PAS »

Les chercheurs affirment qu’ils ne sont capables de détecter qu’une petite partie des retraits de contenu erronés.

"Nous ne savons pas combien de personnes essaient de parler et nous ne les entendons pas", a déclaré Alexa Koenig, directrice du Centre des droits de l'homme de l'Université de Californie à Berkeley.

"Ces algorithmes récupèrent le contenu avant même que nous le voyions", a déclaré Koenig, dont le centre utilise des images et des vidéos publiées depuis des zones de conflit comme la Syrie pour documenter les violations des droits de l'homme et monter des dossiers.

YouTube a déclaré que 80 % des vidéos signalées par son IA avaient été supprimées avant que quiconque ne les ait vues au deuxième trimestre 2019.

Cela inquiète Koenig, qui craint que l'effacement de ces vidéos ne mette en péril les enquêtes en cours dans le monde entier.

En 2017, la Cour pénale internationale a émis son premier mandat d'arrêt reposant principalement sur des preuves issues des réseaux sociaux, après la diffusion sur Facebook d'une vidéo du commandant libyen Mahmoud al-Werfalli.

La vidéo le montrait en train d'abattre 10 prisonniers aux yeux bandés sur le site d'un attentat à la voiture piégée à Benghazi. Il est toujours en liberté.

Koenig craint que ce type de documentation ne soit désormais menacé : "Le danger est bien plus élevé qu'il ne l'était il y a quelques mois", a-t-elle déclaré.

"C'est un sentiment écoeurant de savoir que nous ne sommes pas près de là où nous devons être pour préserver ce contenu."

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd