Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4372

Incidents associés

Incident 8697 Rapports
TikTok Algorithms Allegedly Linked to Minors' Exposure to Harmful Content

Loading...
Des familles françaises poursuivent TikTok pour non-suppression présumée de contenus préjudiciables
reuters.com · 2024

PARIS, 4 novembre (Reuters) - Sept familles françaises ont porté plainte contre le géant des réseaux sociaux TikTok, accusant la plateforme d'avoir exposé leurs enfants adolescents à des contenus préjudiciables qui ont conduit deux d'entre eux à se suicider à 15 ans, a indiqué lundi leur avocate.

La plainte allègue que l'algorithme de TikTok a exposé les sept adolescents à des vidéos faisant la promotion du suicide, de l'automutilation et des troubles alimentaires, a déclaré l'avocate Laure Boutron-Marmion à la chaîne de télévision franceinfo.

Les familles ont intenté une action en justice conjointe devant le tribunal judiciaire de Créteil. Boutron-Marmion a déclaré qu'il s'agissait de la première affaire groupée de ce type en Europe.

"Les parents souhaitent que la responsabilité juridique de TikTok soit reconnue devant les tribunaux", a-t-elle déclaré, ajoutant : "Il s'agit d'une entreprise commerciale qui propose un produit à des consommateurs qui sont, de surcroît, mineurs. Ils doivent donc répondre des manquements du produit".

TikTok, comme d'autres plateformes de réseaux sociaux, fait depuis longtemps l'objet d'un examen minutieux concernant le contrôle du contenu de son application.

Tout comme Facebook et Instagram de Meta, (META.O), opens new tab sont confrontés à des centaines de poursuites aux États-Unis, les accusant d'avoir attiré et rendu dépendants des millions d'enfants sur leurs plateformes, nuisant ainsi à leur santé mentale.

TikTok n'a pas pu être contacté dans l'immédiat pour commenter ces allégations.

L'entreprise a précédemment déclaré qu'elle prenait au sérieux les problèmes liés à la santé mentale des enfants. Le PDG Shou Zi Chew a déclaré cette année aux législateurs américains que la société avait investi dans des mesures pour protéger les jeunes qui utilisent l'application.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd