Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 4373

Incidentes Asociados

Incidente 8697 Reportes
TikTok Algorithms Allegedly Linked to Minors' Exposure to Harmful Content

Loading...
Familias francesas demandan a TikTok por contenido dañino
bbc.com · 2024

TikTok ha sido demandada por siete familias en Francia, que acusan al gigante de las redes sociales de exponer a sus hijos a contenido dañino, lo que llevó a dos de ellos a suicidarse.

El caso alega que el algoritmo de la plataforma de vídeo los expuso a contenido que promovía la autolesión, los trastornos alimentarios y el suicidio, dijo Laure Boutron-Marmion, abogada de las familias.

Ella dijo a los medios franceses que la demanda era la primera de este tipo en Europa.

TikTok, que es una de las plataformas de redes sociales más populares del mundo, dijo que no había recibido ninguna notificación de procedimientos legales relacionados con las reclamaciones.

La empresa añadió en un comunicado que sus directrices comunitarias no permiten mostrar, promover o compartir planes de suicidio o autolesión, y que utiliza una combinación de tecnología y moderación para garantizar que se respeten estos estándares.

La demanda colectiva, que se ha presentado en el tribunal judicial de Créteil, es independiente de una denuncia penal presentada contra TikTok el año pasado por los padres de Marie, una de las dos adolescentes que se suicidaron.

Marie, cuyo apellido no se ha utilizado en el reportaje, tenía 15 años cuando se suicidó en 2021. Su muerte, según su madre, se debió en parte al contenido de vídeo al que pudo acceder en TikTok sin moderación.

Otra chica cuya familia está implicada en la demanda también se suicidó, mientras que cuatro de las otras cinco jóvenes intentaron quitarse la vida. Al menos una de ellas había desarrollado un trastorno alimentario.

  • Si tienes alguno de los problemas mencionados en esta historia, puedes visitar BBC Action Line para obtener una lista de sitios web y líneas de ayuda que pueden ofrecer ayuda directa en cualquier momento.

"Los padres quieren que se reconozca la responsabilidad legal de TikTok en los tribunales", dijo Boutron-Marmion a la emisora Franceinfo.

"Se trata de una empresa comercial que ofrece un producto a consumidores que, además, son menores de edad. Por tanto, deben responder por las deficiencias del producto".

TikTok, al igual que otras redes sociales importantes, ha sido objeto de escrutinio y críticas por sus prácticas de protección.

Más de una docena de estados de EE. UU. demandaron recientemente a la empresa acusándola de contribuir a impulsar una crisis de salud mental entre los adolescentes.

El año pasado, la Unión Europea abrió una investigación para determinar si había infringido nuevas leyes de seguridad relacionadas con la protección de los menores, entre otras áreas.

En una entrevista en abril, Boutron-Marmion le dijo al sitio de noticias legales francés Actu-Juridique que casos como el de Molly Russell, la colegiala británica que se suicidó en 2017 después de ver imágenes gráficas de autolesiones y suicidio en Instagram y Pinterest, estaban aumentando la conciencia sobre la necesidad de una mayor responsabilidad cuando se trata del contenido de las redes sociales.

"Los padres están empezando a despertar. Muchos de ellos no eran conscientes de los horrores que circulaban en las plataformas. Si bien he notado un cambio de mentalidad, el problema sigue siendo: la adicción persiste, incluso entre los adultos".

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd