Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 1877

Incidents associés

Incident 2813 Rapports
YouTube's Algorithms Failed to Remove Violating Content Related to Suicide and Self-Harm

Loading...
YouTube surpris en train de promouvoir des didacticiels mortels "comment s'automutiler" pour les jeunes de 13 ans
thesun.co.uk · 2019

YouTube a été surpris en train de recommander des "dizaines" de vidéos graphiques relatives à l'automutilation des enfants.

L'application de partage de vidéos extrêmement populaire a été critiquée pour avoir fait la promotion de clips dangereux auprès d'utilisateurs aussi jeunes que 13 ans.

YouTube est critiqué pour ne pas avoir protégé les utilisateurs contre les contenus préjudiciablesCrédit : Reuters

YouTube, propriété de Google, a déjà été critiqué pour avoir hébergé du contenu inapproprié sur le thème du suicide.

Mais un nouveau rapport de The Telegraph a révélé que YouTube n'a pas réussi à nettoyer son acte.

Il a trouvé des vidéos représentant des "images graphiques d'automutilation", qui étaient facilement accessibles aux jeunes sur le site.

Un clip signalé intitulé "Mes énormes cicatrices d'automutilation extrême" est toujours en ligne sur le site, ayant accumulé près de 400 000 vues au cours des deux dernières années.

Il a également été constaté que YouTube proposait des recommandations de termes de recherche inquiétantes, notamment "tutoriel sur l'automutilation", "les filles qui s'automutilent" et "le guide de l'automutilation".

Les ministres britanniques élaborent actuellement des plans pour que les géants de la technologie aient une obligation légale de diligence pour les jeunes utilisant les plateformes de médias sociaux.

Il y a une pression croissante sur les méga-entreprises comme Google et Facebook pour qu'elles assument davantage la responsabilité du bien-être des enfants sur leurs sites.

Dans un communiqué, le secrétaire britannique à la Santé, Matt Hancock, a déclaré : "Nous sommes maîtres de notre propre destin en tant que nation, et nous devons agir pour garantir que cette technologie étonnante soit utilisée pour le bien, et ne conduise pas les jeunes filles à se suicider".

Un porte-parole de YouTube a publié une déclaration sur l'exposé, affirmant qu'il "travaillait dur" pour empêcher l'apparition de vidéos et de recommandations nuisibles sur le site.

"Nous savons que de nombreuses personnes utilisent YouTube pour trouver des informations, des conseils ou de l'aide, parfois dans les circonstances les plus difficiles", a déclaré un porte-parole de YouTube.

"Nous travaillons dur pour nous assurer que nos plateformes ne sont pas utilisées pour encourager des comportements dangereux.

"Pour cette raison, nous avons des politiques strictes qui interdisent les vidéos faisant la promotion de l'automutilation et nous supprimerons les vidéos signalées qui enfreignent cette politique.

"Nos politiques interdisent également les prédictions de saisie semi-automatique pour ces sujets, et nous supprimerons toutes les suggestions qui ne sont pas conformes à nos politiques."

YouTube affiche également un numéro de téléphone pour contacter les Samaritains, une organisation caritative de soutien au suicide, lorsque les utilisateurs recherchent des termes tels que "suicide" sur le site.

Mais les experts pensent que YouTube ne va tout simplement pas assez loin pour résoudre ces problèmes.

S'adressant à The Sun, Andy Burrows, responsable associé de la sécurité des enfants en ligne au NSPCC, a déclaré: "Il est préoccupant que YouTube recommande activement des vidéos inappropriées aux jeunes.

"YouTube, comme tant de plateformes de médias sociaux, semble ne pas respecter ses propres règles pour assurer la sécurité des enfants.

"La campagne Wild West Web du NSPCC demande depuis des mois au gouvernement d'imposer une obligation légale de diligence qui oblige enfin les réseaux sociaux à vraiment protéger les enfants et à faire face à des sanctions sévères s'ils ne le font pas. Ce n'est pas une opportunité que le gouvernement peut Mademoiselle."

En septembre dernier, une enquête menée par The Sun a révélé comment YouTube profitait de farceurs malades qui publient en ligne de fausses vidéos de suicide choquantes.

Nous avons découvert des centaines de vidéos choquantes : certaines comptent des millions de vues et sont en direct sur YouTube depuis des années.

Des organisations caritatives de santé mentale ont averti The Sun que ces vidéos pourraient même inspirer de vrais suicides, en raison des méthodes détaillées présentées dans certains clips.

Un clip a vu une femme fabriquer sa propre mort dans une baignoire remplie de faux sang, filmant la réaction de son mari à son retour à la maison.

Le partenaire en détresse de la femme pleure, crie son nom et entre même dans la baignoire pour la réanimer.

Une autre vidéo de cinq ans montre un farceur britannique simuler un appel téléphonique en colère, avant de sauter dans la Tamise – un acte qui fait 25 morts par an – étourdissant les spectateurs. Il a plus de 3 millions de vues.

S'adressant au Sun à l'époque, Brian Dow, directeur général de Mental Health UK et coprésident de la National Suicide Prevention Alliance, a déclaré: "Il ne devrait vraiment pas être nécessaire de dire que le suicide n'est pas une blague ou une farce.

"Chaque jour, des gens perdent des parents, des enfants, des frères et sœurs et des amis, et le voir ainsi banalisé est à la fois cruel et incroyablement irresponsable.

"Présenter ce problème très grave de cette manière peut avoir des effets immédiats et durables non seulement sur le spectateur, qui pourrait être déclenché par ce qu'il voit à l'écran, mais aussi sur les victimes des "farces" que nous voyons se faire."

À l'époque, un porte-parole du Département du numérique, de la culture, des médias et des sports a déclaré au Sun : "Le suicide est un problème très grave qui touche des millions de personnes chaque année.

"Nous demandons instamment à YouTube de se demander si les vidéos qui banalisent quelqu'un qui se suicide devraient figurer sur sa plate-forme."

Ce n'était pas la première fois que YouTube était exposé pour avoir hébergé du contenu choquant.

En décembre 2017, le populaire vlogger YouTube [Logan Paul](https://www.thesun.co.uk/tvandshowbiz/5249875/logan-paul-height-weight-net-worth-suicide-forest-video-youtube-girlfriend- ksi-fight/) a suscité la controverse après avoir filmé le corps de une victime suicidée.

Le clip, qui a été publié sur YouTube, montrait le cadavre récemment décédé d'une personne qui s'était pendue dans une forêt au Japon.

Paul a gagné des millions de vues en quelques heures, mais a été largement condamné. Il a finalement retiré la vidéo, a présenté des excuses et a pris une pause d'un mois de YouTube.

Le Sun a également découvert une annonce de stéroïdes malveillants, un secret [cache de porno](https://www. thesun.co.uk/tech/6037891/youtube-porn-videos-playlists-millions-views/), des playlists cochonnes [conçues pour "attirer les enfants"](https://www.thesun.co.uk/tech/6081286 /youtube-porn-playlist-kids-parental-control/) et webcam sex ads sur Youtube.

Les sites de médias sociaux pourraient bientôt être poursuivis pour ne pas avoir protégé les enfants contre les contenus dérangeants en ligne.

Instagram a reconnu son incapacité à bloquer les photos d'automutilation et de suicide.

Et Facebook a récemment été surpris [en train de payer des enfants jusqu'à 15 £ par mois pour installer une "application d'espionnage"](https://www.thesun.co.uk/tech/8311587/facebook-paying-children-to-install-spying -app/) qui surveille tout ce qu'ils ont fait en ligne.

Pensez-vous que Google doit faire plus pour garder YouTube propre ? Faites le nous savoir dans les commentaires!

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd