Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 1747

Incidents associés

Incident 2292 Rapports
Content Using Bestiality Thumbnails Allegedly Evaded YouTube’s Thumbnail Monitoring System

Loading...
Les chaînes YouTube utilisent des miniatures de bestialité comme clickbait
theverge.com · 2018

Encore un autre problème que l'intelligence artificielle est mal équipée pour gérer.

Selon un rapport de BuzzFeed News, des vidéos YouTube avec des vignettes représentant des femmes se livrant à divers actes sexuels avec des chevaux et des chiens figurent parmi les principaux résultats de recherche sur la plate-forme vidéo. Certaines de ces vidéos, qui peuvent être facilement trouvées via le moteur de recommandation algorithmique de YouTube après avoir recherché des phrases anodines comme "fille et son cheval", ont des millions de vues et sont sur la plateforme depuis des mois.

Bien sûr, les vidéos YouTube décrivant de tels actes seraient plus facilement interceptées par les filtres algorithmiques de l'entreprise, son système de signalement des utilisateurs et ses modérateurs de contenu humains. Plus difficiles à trouver et à éliminer sont les vidéos qui utilisent des images graphiques et obscènes comme vignettes, à côté des titres de clickbait, pour augmenter le nombre de téléspectateurs et générer plus de revenus publicitaires. Il ne semble pas qu'aucune des vidéos présentant les vignettes de bestialité ne présente en fait de bestialité.

Il ne s'agit pas d'un problème isolé, mais plutôt d'un autre exemple de la façon dont la structure fondamentale de YouTube peut être exploitée par de mauvais acteurs, dont beaucoup se jouent des règles de la plate-forme soit pour générer des revenus publicitaires pour des fermes de clics, soit à des fins néfastes. Comme Facebook et Twitter, YouTube a lutté au cours des deux dernières années avec le manque de contrôle qu'il a sur l'immense quantité de contenu généré par les utilisateurs qu'il diffuse chaque jour à l'étranger. Bien que YouTube dispose d'algorithmes puissants qui aident à signaler le contenu et plusieurs milliers de modérateurs humains sous contrat, il semble que chaque semaine un nouveau problème surgisse qui montre à quel point le système de modération de l'entreprise est fragile et mal équipé pour gérer le contenu qui est contre les règles ou autrement illégales.

Ainsi, un problème de modération qui a commencé il y a des années en grande partie avec du contenu protégé par le droit d'auteur s'est maintenant étendu pour inclure les vidéos de recrutement et de propagande du terrorisme, le contenu d'exploitation des enfants, la pornographie et d'autres contenus explicites, parmi des millions et des millions d'autres vidéos non adaptées aux annonceurs. YouTube a apporté des modifications substantielles à sa plate-forme pour apaiser les annonceurs, apaiser les critiques et améliorer la sécurité et la légalité de son produit. Ces changements incluent l'engagement d'embaucher plus de modérateurs humains, la démonétisation massive et l'interdiction des comptes, ainsi que des mises à jour de ses conditions d'utilisation et des politiques du site.

Selon BuzzFeed, YouTube a traversé et a commencé à nettoyer sa plate-forme des vidéos et des comptes responsables du contenu des vignettes de bestialité une fois que l'agence de presse l'a informé du problème. Dans un article publié par le New York Times aujourd'hui, YouTube a déclaré avoir supprimé un total de 8,28 millions de vidéos en 2017, environ 80 % de ces suppressions ayant commencé par un drapeau de son système de modération de contenu basé sur l'intelligence artificielle. Pourtant, tant que YouTube s'appuie principalement sur des logiciels pour résoudre les vidéos dites problématiques, il devra nettoyer manuellement sa plate-forme du contenu comme les vignettes de bestialité et tout autre coin sombre de la surface Internet sur les résultats de recherche YouTube publics et à travers son moteur de recommandation.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd