Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 1640

Incidents associés

Incident 1974 Rapports
Facebook Internally Reported Failure of Ranking Algorithm, Exposing Harmful Content to Viewers over Months

Loading...
Meta admet que le bogue de Facebook a conduit à une "vague de désinformation"
dailymail.co.uk · 2022

Meta a admis qu'un bogue de Facebook a entraîné une « vague de désinformation » et d'autres contenus préjudiciables apparaissant dans les fils d'actualité des utilisateurs entre octobre et mars.

Selon un document interne, les ingénieurs de la société de Mark Zuckerberg n'ont pas réussi à supprimer les messages des "récidivistes de désinformation" pendant près de six mois.

Au cours de la période, les systèmes Facebook ont également probablement échoué à rétrograder correctement la nudité, la violence et les médias d'État russes pendant la guerre contre l'Ukraine, selon le document.

Meta aurait désigné le problème comme un "événement de site de niveau 1" - une étiquette réservée aux crises techniques hautement prioritaires, comme le bloc russe de Facebook et Instagram.

MailOnline a contacté Meta pour commentaires, bien que la société aurait confirmé le bogue de six mois à Verge.

Ce n'est qu'après que Verge a obtenu le document Meta interne, qui a été partagé au sein de l'entreprise la semaine dernière.

"[Meta] a détecté des incohérences dans le déclassement à cinq reprises, qui étaient corrélées à de petites augmentations temporaires des mesures internes", a déclaré le porte-parole de Meta, Joe Osborne.

"Nous avons retracé la cause première d'un bogue logiciel et appliqué les correctifs nécessaires. [Le bogue] n'a eu aucun impact significatif à long terme sur nos mesures.

Les méta-ingénieurs ont remarqué le problème pour la première fois en octobre dernier, lorsqu'une vague soudaine de désinformation a commencé à circuler dans les fils d'actualité.

Cette désinformation provenait de «récidivistes» - des utilisateurs qui partagent à plusieurs reprises des messages qui ont été considérés comme de la désinformation par une équipe de vérificateurs de faits humains.

"Au lieu de supprimer les messages des récidivistes de la désinformation qui ont été examinés par le réseau de vérificateurs de faits extérieurs de l'entreprise, le fil d'actualité a plutôt distribué les messages", rapporte Verge.

Les comptes Facebook qui avaient été désignés comme des "délinquants de désinformation" à répétition ont vu leurs opinions grimper jusqu'à 30 %.

Incapables d'en trouver la cause, les ingénieurs de Meta ont simplement dû regarder la poussée se calmer quelques semaines plus tard, puis s'embraser à plusieurs reprises au cours des six mois suivants.

Le problème a finalement été résolu il y a trois semaines, le 11 mars, selon le document interne.

Meta a déclaré que le bogue n'avait pas d'incidence sur la capacité de l'entreprise à supprimer le contenu qui enfreignait ses règles.

Selon Sahar Massachi, un ancien membre de l'équipe d'intégrité civique de Facebook, le problème de Meta ne fait que souligner pourquoi plus de transparence est nécessaire dans les plateformes Internet et les algorithmes qu'elles utilisent.

"Dans un grand système complexe comme celui-ci, les bogues sont inévitables et compréhensibles", a-t-il déclaré.

"Mais que se passe-t-il lorsqu'une plate-forme sociale puissante présente l'un de ces défauts accidentels ? Comment saurions-nous même?

"Nous avons besoin d'une réelle transparence pour construire un système durable de responsabilité, afin que nous puissions les aider à détecter rapidement ces problèmes."

En mai dernier, Meta (connu à l'époque sous le nom de Facebook) a déclaré qu'il prendrait des mesures plus énergiques contre les récidivistes de la désinformation, sous la forme de sanctions telles que des restrictions de compte.

"Qu'il s'agisse de contenu faux ou trompeur sur Covid-19 et les vaccins, le changement climatique, les élections ou d'autres sujets, nous veillons à ce que moins de personnes voient des informations erronées sur nos applications", a déclaré la société dans un article de blog.

"Nous réduirons la distribution de tous les messages dans le fil d'actualité à partir du compte Facebook d'un individu s'il partage à plusieurs reprises du contenu qui a été évalué par l'un de nos partenaires de vérification des faits."

L'année dernière, la société a déclaré qu'elle commencerait à déclasser tout le contenu politique sur Facebook – une décision prise sur la base des commentaires des utilisateurs qui "ne veulent pas que le contenu politique prenne le contrôle de leur fil d'actualité".

Meta s'est renommé en octobre, dans le cadre de son projet à long terme visant à transformer sa plate-forme de médias sociaux en un métaverse - un espace collectif virtuel partagé avec des avatars de personnes réelles.

À l'avenir, la plate-forme de médias sociaux sera accessible au sein du métaverse à l'aide de casques de réalité virtuelle (VR) et de réalité augmentée (AR) et de lunettes intelligentes.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd