Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 1641

Incidents associés

Incident 1974 Rapports
Facebook Internally Reported Failure of Ranking Algorithm, Exposing Harmful Content to Viewers over Months

Loading...
Le système Facebook conçu pour étouffer la désinformation nuisible la propage en fait
thedrum.com · 2022

Les ingénieurs de Facebook ont découvert tardivement une faille importante dans son système de déclassement pour filtrer les contenus préjudiciables, qui a exposé jusqu'à la moitié de toutes les vues du fil d'actualité à des "risques d'intégrité" potentiels pendant six mois.

Les rapports de The Verge suggèrent que "l'échec massif du classement" a été identifié pour la première fois en octobre dernier lorsque les ingénieurs se sont battus contre une vague de désinformation qui menaçait d'inonder le fil d'actualité. Des enquêtes plus approfondies ont révélé qu'un système de classement conçu pour supprimer la désinformation des comptes signalés, identifié par une équipe de vérificateurs de faits externes, faisait plutôt apparaître ces messages au public.

Une fuite de correspondance suggère que le bogue a augmenté le nombre de vues des messages malveillants jusqu'à 30 % par intermittence jusqu'à ce que le problème soit finalement résolu le 11 mars.

Tout au long de cette période de six mois, les algorithmes de police tant vantés de Facebook n’ont pas correctement déclassé la nudité, la violence et la propagande de l’État russe – une période qui a coïncidé avec l’invasion de l’Ukraine par le pays.

Répondant aux demandes de The Verge, le porte-parole de Meta, Joe Osborne, a décrit cinq cas distincts d '«incohérences dans le déclassement» attribués à un «bogue logiciel» au cours duquel du matériel inapproprié a reçu une visibilité accrue.

Osborne insiste cependant sur le fait que l'épisode "n'a eu aucun impact significatif à long terme sur nos mesures", soulignant que le contenu qui a dépassé le seuil de suppression n'a pas été affecté.

Le système de déclassement a été présenté par Facebook comme la preuve que l'autorégulation est efficace, évitant ainsi les appels à une nouvelle législation pour freiner la propagation des contenus "sensationnalistes et provocateurs" qui attirent généralement le plus l'attention.

Jusqu'à présent, Facebook s'est vanté du succès de ses algorithmes en identifiant le contenu "limite" qui contourne les limites de l'acceptabilité dans des domaines tels que le discours de haine, en signalant les infractions présumées pour un examen manuel.

Un rapport récent a révélé que le discours de haine était présent dans six vues sur 10 000 sur Facebook.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd