Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4807

Incidents associés

Incident 9571 Rapport
Alleged Instagram Algorithm Malfunction Floods Users' Reels Feeds with Violent and Graphic Content

Loading...
Meta s'excuse pour le flot de sang, de violence et de cadavres sur Instagram
theguardian.com · 2025

Meta, le créateur de l’application Instagram, a présenté ses excuses après que les utilisateurs d’Instagram ont été victimes d’un déluge de violence, de violences, de maltraitance animale et de cadavres sur leurs flux Reels.

Les utilisateurs ont signalé ces images après un dysfonctionnement apparent de l’algorithme d’Instagram, qui organise ce que les gens voient sur l’application.

Reels est une fonctionnalité de la plateforme de médias sociaux qui permet aux utilisateurs de partager de courtes vidéos, à l’instar de TikTok.

Un forum Instagram sur Reddit, la plateforme de discussion en ligne, contenait des messages d’utilisateurs faisant référence au contenu graphique qui était apparu dans leurs flux en milieu de semaine.

Un utilisateur du subreddit a écrit : « Je viens de voir au moins 10 personnes mourir sur mes reels. »

Les utilisateurs ont également fait référence à une vidéo d’un homme écrasé par un éléphant. D’autres ont signalé des images d’un homme démembré par un hélicoptère et une vidéo où « un type plonge son visage dans de l’huile bouillante ». Plusieurs utilisateurs ont publié des vidéos de leurs flux Reels dominés par des écrans de « contenu sensible » conçus pour protéger les utilisateurs du matériel graphique.

Une liste de contenus violents sur le flux d’un utilisateur, publiée par le site d’actualités technologiques 404, comprenait : un homme incendié ; un homme tirant sur une caissière à bout portant ; des vidéos d’un compte appelé « PeopleDeadDaily » ; et un cochon battu avec une clé à molette. L’utilisateur en question avait un compte Instagram lié au vélo, a rapporté 404 Media.

Un autre utilisateur de Reddit a écrit : « Depuis 24 heures, on a l’impression que l’algorithme d’Instagram est devenu voyou. Mon fil d’actualité est rempli de Reels violents, les uns après les autres.

« C’est comme si Instagram essayait maintenant de me faire me demander si j’avais accidentellement suivi un compte « effusion de sang et chaos ». Je comprends que la plateforme soit axée sur « l’engagement » et les « tendances », mais pensaient-ils vraiment que c’était le moyen d’inciter les gens à faire défiler davantage leur fil d’actualité ? »

Un porte-parole de Meta, la société mère d’Instagram et de Facebook, a déclaré : « Nous avons corrigé une erreur qui faisait que certains utilisateurs voyaient sur leur fil d’actualité Instagram Reels du contenu qui n’aurait pas dû être recommandé. Nous nous excusons pour cette erreur. »

L’erreur fait suite à de récents changements apportés à l’approche de Meta en matière de modération de contenu. Cependant, l’entreprise a déclaré à 404 Media que le déluge de vidéos explicites n’était pas lié à la refonte des règles de contenu de Meta, qui comprenait la suppression des vérificateurs de faits et la réduction « drastique » du niveau de censure sur ses plateformes.

Les directives de contenu de Meta stipulent que l’entreprise supprimera le contenu « particulièrement violent ou explicite » et que certaines images seront masquées par des écrans de contenu sensible. Au Royaume-Uni, la loi sur la sécurité en ligne exige que les plateformes de réseaux sociaux prennent des mesures pour empêcher les moins de 18 ans de voir des contenus qui leur sont préjudiciables, tels que des contenus violents, haineux ou abusifs, ce qui implique de configurer leurs algorithmes pour filtrer ces contenus.

Un groupe de défense de la sécurité sur Internet a exigé une « explication complète » de ce qui était arrivé à l’algorithme d’Instagram.

La Fondation Molly Rose, créée par la famille de l’adolescente britannique Molly Russell, qui s’est suicidée en 2017 après avoir visionné des contenus choquants sur Instagram, a déclaré qu’il fallait répondre aux questions sur les raisons pour lesquelles un tel contenu graphique était présent sur la plateforme en premier lieu.

« Alors qu’Instagram réduit la modération du contenu, cela est probablement un signe avant-coureur », a déclaré Andy Burrows, le directeur général de la fondation. « Les changements apportés à Meta signifient que ce type de contenu sera plus librement disponible et sera plus souvent recommandé pour apparaître dans les flux des utilisateurs. »

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd