Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2129

Incidents associés

Incident 3621 Rapport
Facebook's Automated Moderation Flagged Gardening Group's Language Use by Mistake

Loading...
Ho non ! Le snafu de Facebook pose problème à un groupe de jardinage
apnews.com · 2021

Modérer un groupe de jardinage Facebook dans l'ouest de New York n'est pas sans défis. Il y a des plaintes de punaises laineuses, des intempéries et des membres novices qui insistent pour utiliser du détergent à vaisselle sur leurs plantes.

Et puis il y a le mot "houe".

Les algorithmes de Facebook signalent parfois ce mot particulier comme "violant les normes communautaires", faisant apparemment référence à un mot différent, un mot sans "e" à la fin qui est néanmoins souvent mal orthographié comme l'outil de jardinage.

Normalement, les systèmes automatisés de Facebook signaleront les publications contenant du matériel offensant et les supprimeront. Mais si les membres d'un groupe - ou pire, les administrateurs - enfreignent trop souvent les règles, l'ensemble du groupe peut être fermé.

Elizabeth Licata, l'une des animatrices du groupe, s'en inquiétait. Après tout, le groupe, WNY Gardeners, compte plus de 7 500 membres qui l'utilisent pour obtenir des astuces et des conseils de jardinage. Il a été particulièrement populaire pendant la pandémie lorsque de nombreuses personnes confinées à la maison ont commencé à jardiner pour la première fois.

Une houe de n'importe quel autre nom pourrait être un râteau, une herse ou un motoculteur. Mais Licata n'était pas sur le point d'interdire le mot du groupe, ou d'essayer de supprimer chaque instance. Lorsqu'un membre du groupe a commenté "Push pull hoe!" sur un message demandant "votre outil de désherbage le plus aimé et le plus indispensable", Facebook a envoyé une notification indiquant "Nous avons examiné ce commentaire et avons constaté qu'il allait à l'encontre de nos normes en matière de harcèlement et d'intimidation".

Facebook utilise à la fois des modérateurs humains et l'intelligence artificielle pour éradiquer le matériel qui va à l'encontre de ses règles. Dans ce cas, un humain aurait probablement su qu'une houe dans un groupe de jardinage n'est probablement pas un cas de harcèlement ou d'intimidation. Mais l'IA n'est pas toujours douée pour le contexte et les nuances du langage.

Il manque aussi beaucoup de choses – les utilisateurs se plaignent souvent de signaler un langage violent ou abusif et les règles de Facebook selon lesquelles il ne viole pas ses normes communautaires. La désinformation sur les vaccins et les élections est un problème de longue date et bien documenté pour la société de médias sociaux. D'un autre côté, des groupes comme celui de Licata sont pris dans des algorithmes trop zélés.

"Et j'ai donc contacté Facebook, qui n'a servi à rien. Comment tu fais ça?" dit-elle. "Vous savez, j'ai dit que c'était un groupe de jardinage, une houe est un outil de jardinage."

Licata a déclaré qu'elle n'avait jamais entendu parler d'une personne et de Facebook, et a trouvé qu'il était futile de naviguer dans le système d'enquêtes du réseau social et les moyens d'essayer de remettre les pendules à l'heure.

Contacté par l'Associated Press, un représentant de Facebook a déclaré dans un e-mail cette semaine que la société avait trouvé le groupe et corrigé les erreurs d'application. Il a également mis en place une vérification supplémentaire, ce qui signifie que quelqu'un - une personne réelle - vérifiera les messages incriminés avant que le groupe ne soit considéré pour suppression. L'entreprise n'a pas voulu dire si d'autres groupes de jardinage avaient des problèmes similaires. (En janvier, Facebook mistakenly flagged le monument britannique de Plymouth Hoe comme offensant, puis s'est excusé, selon The Guardian.)

"Nous prévoyons de mettre en place un meilleur support client pour nos produits et de fournir au public encore plus d'informations sur nos politiques et sur la manière dont nous les appliquons", a déclaré Facebook dans un communiqué en réponse aux plaintes de Licata.

Ensuite, quelque chose d'autre est arrivé. Licata a reçu une notification indiquant que Facebook a automatiquement désactivé les commentaires sur une publication en raison de "violence, incitation ou haine possibles dans plusieurs commentaires".

Les commentaires offensants comprenaient «Tuez-les tous. Noyez-les dans de l'eau savonneuse » et « Les scarabées japonais sont des imbéciles ».

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd