Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 4397

Incidentes Asociados

Incidente 8697 Reportes
TikTok Algorithms Allegedly Linked to Minors' Exposure to Harmful Content

Loading...
Padres franceses cuyos hijos se suicidaron demandan a TikTok por contenido dañino
theguardian.com · 2024

Siete familias francesas han presentado una demanda contra TikTok, acusando a la plataforma de exponer a sus hijos adolescentes a contenidos nocivos que llevaron a dos de ellos a suicidarse a los 15 años, según ha informado su abogado.

La demanda alega que el algoritmo de TikTok expuso a los siete adolescentes a vídeos que promovían el suicidio, la autolesión y los trastornos alimentarios, según ha declarado la abogada Laure Boutron-Marmion a la emisora Franceinfo el lunes.

Las familias han emprendido una acción judicial conjunta en el tribunal judicial de Créteil, en París. Boutron-Marmion ha afirmado que se trata del primer caso conjunto de este tipo en Europa.

"Los padres quieren que se reconozca la responsabilidad jurídica de TikTok en los tribunales", ha afirmado, y ha añadido: "Se trata de una empresa comercial que ofrece un producto a consumidores que, además, son menores de edad. Por tanto, deben responder de las deficiencias del producto".

TikTok, al igual que otras plataformas de redes sociales, ha sido objeto de un escrutinio durante mucho tiempo por la vigilancia del contenido de su aplicación.

Al igual que Facebook e Instagram de Meta, enfrenta cientos de demandas en los EE. UU. que la acusan de atraer y hacer adictos a su plataforma a millones de niños, lo que daña su salud mental.

El mes pasado, más de una docena de estados y el Distrito de Columbia presentaron demandas contra la empresa de propiedad china, alegando que está dañando la salud mental de los niños con un producto diseñado para ser usado de manera compulsiva y excesiva.

En respuesta a las demandas, un portavoz de TikTok dijo: “Estamos totalmente en desacuerdo con estas afirmaciones, muchas de las cuales creemos que son inexactas y engañosas”.

La empresa ha dicho anteriormente que se toma en serio los problemas relacionados con la salud mental de los niños.

Su director ejecutivo, Shou Zi Chew, dijo este año a los legisladores estadounidenses que la empresa había invertido en medidas para proteger a los jóvenes que usan la aplicación.

Reuters contribuyó a este artículo

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd