Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4401

Incidents associés

Incident 8697 Rapports
TikTok Algorithms Allegedly Linked to Minors' Exposure to Harmful Content

Loading...
TikTok poursuivi en France pour des contenus préjudiciables qui auraient conduit à deux suicides
cnn.com · 2024

Sept familles françaises ont porté plainte contre le géant des réseaux sociaux TikTok, accusant la plateforme d’avoir exposé leurs enfants adolescents à des contenus préjudiciables qui ont conduit deux d’entre eux à se suicider à 15 ans, a indiqué lundi leur avocate.

La plainte allègue que l’algorithme de TikTok a exposé les sept adolescents à des vidéos faisant la promotion du suicide, de l’automutilation et des troubles alimentaires, a déclaré l’avocate Laure Boutron-Marmion à la chaîne de télévision franceinfo.

Les familles intentent une action en justice conjointe devant le tribunal judiciaire de Créteil. Boutron-Marmion a déclaré qu’il s’agissait de la première affaire groupée de ce type en Europe.

« Les parents souhaitent que la responsabilité juridique de TikTok soit reconnue devant les tribunaux », a-t-elle déclaré, ajoutant : « Il s’agit d’une entreprise commerciale qui propose un produit à des consommateurs qui sont, de surcroît, mineurs. Ils doivent donc répondre des manquements du produit. »

TikTok, comme d’autres plateformes de réseaux sociaux, fait depuis longtemps l’objet d’un examen minutieux concernant le contrôle du contenu de son application.

Tout comme Meta (META) avec Facebook et Instagram, elle fait face à des centaines de procès aux États-Unis accusant les entreprises d’attirer et de rendre accros des millions d’enfants à leurs plateformes, nuisant à leur santé mentale.

TikTok n’a pas pu être immédiatement contacté pour commenter ces allégations.

L’entreprise a déjà déclaré qu’elle prenait au sérieux les problèmes liés à la santé mentale des enfants. Le PDG Shou Zi Chew a déclaré cette année aux législateurs américains que l’entreprise avait investi dans des mesures pour protéger les jeunes qui utilisent l’application.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd