Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 1961

Incidents associés

Incident 3112 Rapports
YouTube Auto-Moderation Mistakenly Banned Women of Sex Tech Conference

Loading...
YouTube affirme que l'interdiction de l'émission en direct sur les technologies sexuelles féminines était la faute de l'algorithme
dailymail.co.uk · 2020

YouTube accuse son outil de modération automatique d'avoir supprimé un flux en direct d'une conférence sur le sexe des femmes.

Selon un rapport du Daily Dot,, la conférence, intitulée Women of Sex Tech, a eu son le flux en direct a été automatiquement banni de YouTube à peine quatre minutes après le début de la diffusion pour avoir prétendument enfreint les directives communautaires de la plate-forme.

La conférence se déroulerait depuis cinq ans, mais a été déplacée en ligne en raison de la pandémie de coronavirus.

Dans une déclaration au DailyDot, YouTube a déclaré que l'incident était dû à une dépendance accrue à l'algorithme destiné à éliminer automatiquement le contenu qui enfreint les directives de YouTube.

Le recours à la modération automatique a été motivé par un manque de modérateurs humains en raison des contraintes imposées par une pandémie de coronavirus en cours, a déclaré YouTube.

"Nous savons que cela peut entraîner la suppression de certaines vidéos qui ne violent pas nos politiques, mais cela nous permet de continuer à agir rapidement et à protéger notre écosystème", a déclaré le porte-parole.

"Si les créateurs pensent que leur contenu a été supprimé par erreur, ils peuvent faire appel des décisions et nos équipes y jetteront un coup d'œil."

Motherboard rapporte que bien que les directives de la communauté YouTube soient destinées à empêcher le contenu "sexuellement gratifiant" ainsi que la nudité et la pornographie, l'intégralité de la conférence de cinq heures ne contenait aucun contenu de ce type.

"J'étais tellement confuse que je pensais que cela devait être un problème étant donné qu'il n'y avait aucune mention de sexe ou de contenu pour adultes à ce moment-là", a déclaré Alison Falk, présidente de Women of Sex Tech, à Motherboard.

« Considérant qu'il ne s'agit pas d'un événement ponctuel et qu'il y a de fréquentes histoires de personnes bannies de l'ombre, démonétisées, dont les comptes sont désactivés, etc. au sein de nos communautés, je ne peux pas m'empêcher de me demander quelles variables dans l'automatisation leur détection intelligente a été invité à rechercher ce qui déclencherait une violation de contenu inapproprié », a déclaré Falk à Motherboard.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd