Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4397

Incidents associés

Incident 8697 Rapports
TikTok Algorithms Allegedly Linked to Minors' Exposure to Harmful Content

Loading...
Des parents français dont les enfants se sont suicidés attaquent TikTok en justice pour contenu préjudiciable
theguardian.com · 2024

Sept familles françaises ont porté plainte contre TikTok, accusant la plateforme d’avoir exposé leurs enfants adolescents à des contenus préjudiciables qui ont conduit deux d’entre eux à se suicider à 15 ans, a indiqué leur avocate.

La plainte allègue que l’algorithme de TikTok a exposé les sept adolescents à des vidéos faisant la promotion du suicide, de l’automutilation et des troubles alimentaires, a déclaré lundi à la chaîne Franceinfo l’avocate Laure Boutron-Marmion.

Les familles ont intenté une action en justice conjointe devant le tribunal judiciaire de Créteil à Paris. Boutron-Marmion a déclaré qu’il s’agissait de la première affaire groupée de ce type en Europe.

« Les parents souhaitent que la responsabilité juridique de TikTok soit reconnue devant les tribunaux », a-t-elle déclaré, ajoutant : « Il s’agit d’une entreprise commerciale qui propose un produit à des consommateurs qui sont, de surcroît, mineurs. Ils doivent donc répondre des manquements du produit. »

TikTok, comme d’autres plateformes de médias sociaux, fait depuis longtemps l’objet d’un examen minutieux concernant le contrôle du contenu de son application.

Comme pour Facebook et Instagram de Meta, il fait face à des centaines de poursuites judiciaires aux États-Unis l’accusant d’avoir attiré et rendu dépendants des millions d’enfants sur sa plateforme, nuisant ainsi à leur santé mentale.

Le mois dernier, plus d’une douzaine d’États et le District de Columbia ont intenté des poursuites contre l’entreprise chinoise, alléguant qu’elle porte atteinte à la santé mentale des enfants avec un produit conçu pour être utilisé de manière compulsive et excessive.

En réponse aux poursuites, un porte-parole de TikTok a déclaré : « Nous sommes en profond désaccord avec ces allégations, dont beaucoup nous semblent inexactes et trompeuses. »

L’entreprise a déclaré auparavant qu’elle prenait au sérieux les problèmes liés à la santé mentale des enfants.

Son directeur général, Shou Zi Chew, a déclaré cette année aux législateurs américains que l’entreprise avait investi dans des mesures pour protéger les jeunes qui utilisent l’application.

Reuters a contribué à cet article

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd