Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 1889

Incidentes Asociados

Incidente 2863 Reportes
TikTok’s "For You" Allegedly Pushed Fatal “Blackout” Challenge Videos to Two Young Girls

Loading...
Las familias demandan a TikTok después de que las niñas murieran mientras intentaban el "desafío del apagón"
theguardian.com · 2022

Las familias de dos niñas que supuestamente murieron como resultado de un desafío viral [TikTok] (https://www.theguardian.com/technology/tiktok) han demandado a la plataforma de redes sociales, alegando que sus "peligrosos" algoritmos son los culpables. por la muerte de sus hijos.

Los padres de dos niñas que murieron en un "desafío de apagón" de 2021 en TikTok, que animaba a los usuarios a ahogarse hasta perder el conocimiento, presentaron una demanda el martes en el tribunal superior del condado de Los Ángeles.

Representados por el Social Media Victims Law Center (SMVLC), un recurso legal para padres de niños perjudicados por adicción a las redes sociales y abuso, alegan que la plataforma “ algoritmo peligroso de manera intencional y repetida” introdujo videos del desafío en los feeds de los niños, incentivándolos a participar en el desafío que finalmente les quitó la vida.

“TikTok debe rendir cuentas por enviar contenido letal a estas dos jóvenes”, dijo Matthew P Bergman, abogado fundador de SMVLC. “TikTok ha invertido miles de millones de dólares para diseñar intencionalmente productos que impulsan contenido peligroso que sabe que es peligroso y puede provocar la muerte de sus usuarios”.

Una de las víctimas, Lalani Erika Renee Walton, de Temple, Texas, de ocho años, es descrita como “una niña extremadamente dulce y extrovertida” a la que “le encantaba vestirse de princesa y jugar con el maquillaje”. Murió el 15 de julio de 2021 en lo que la policía determinó que fue “un resultado directo de intentar el ‘Blackout Challenge’ de TikTok”, según la denuncia.

Lalani había recibido un teléfono para su octavo cumpleaños en abril de 2021 y “rápidamente se volvió adicta a ver videos de TikTok”, dice la denuncia. A menudo publicaba videos de sí misma cantando y bailando, con la esperanza de volverse "famosa en TikTok".

En julio de 2021, su familia comenzó a notar moretones en el cuello de Lalani, que ella explicó como un accidente. Sin que ellos lo supieran, ella había comenzado a participar en el desafío del apagón, que había aparecido por primera vez en su feed semanas antes.

El día de su muerte, Lalani había pasado horas en un viaje familiar por carretera viendo videos, incluidas publicaciones del desafío.

“También creía que si publicaba un video de sí misma haciendo el Blackout Challenge, se volvería famosa y decidió intentarlo”, dice la denuncia. “Lalani tenía ocho años en ese momento y no apreciaba ni entendía la naturaleza peligrosa de lo que TikTok la estaba animando a hacer”.

La otra víctima nombrada en la demanda, Arriani Jaileen Arroyo, de nueve años, de Milwaukee, Wisconsin, recibió un teléfono cuando tenía siete años y usaba TikTok varias veces al día, según la denuncia. Ella "gradualmente se volvió obsesiva" con la publicación de videos de baile en TikTok y se volvió "adicta" a la aplicación.

En enero de 2021, la familia de Arriani habló con ella sobre un incidente en el que un joven usuario de TikTok murió como resultado de un desafío, pero Arriani les aseguró que nunca participaría en videos peligrosos.

Sin embargo, el 26 de febrero de 2021, su hermano de cinco años la encontró sin respiración. La llevaron de urgencia a un hospital local, pero finalmente le quitaron el soporte vital.

“TikTok, sin duda, sabía que el mortal Blackout Challenge se estaba propagando a través de su aplicación y que su algoritmo estaba alimentando específicamente el Blackout Challenge a los niños, incluidos los que habían muerto”, se lee en la denuncia.

La demanda enumera una serie de quejas contra TikTok, incluido que su algoritmo promueve contenido dañino, permite que los usuarios menores de edad accedan a la aplicación y no advierte a los usuarios o a sus tutores legales sobre la naturaleza adictiva de la aplicación.

TikTok no respondió de inmediato a la solicitud de comentarios.

La compañía ha sido criticada en el pasado por permitir que se propaguen desafíos peligrosos. Los médicos informaron que el "desafío de las cajas de leche" de 2021, que animó a los usuarios a apilar y escalar cajas de leche , condujo a hombros dislocados, desgarros de LCA e incluso lesiones de la médula espinal. En 2020, una [niña de 15 años murió](https://www.dailymail.co.uk/news/article-8695443/FOTOGRAFÍA-Oklahoma-girl-15-overdosed-doing-viral-Benadryl-challenge- TikTok.html) después de participar en el “desafío Benadryl”, en el que los usuarios tomaron una gran cantidad de antihistamínicos en un intento de producir efectos alucinógenos. En 2020, dos menores fueron acusados de agresión luego de participar en el desafío “rompe-cráneos”, que causó que una víctima tuviera una convulsión.

Los abogados de SMVLC afirmaron que la empresa permitió a sabiendas que dicho contenido proliferara en la plataforma porque aumentaba la participación, el número de usuarios y, en última instancia, las ganancias.

“TikTok priorizó mayores ganancias corporativas sobre la salud y la seguridad de sus usuarios y, específicamente, sobre la salud y la seguridad de los niños vulnerables que TikTok sabía o debería haber sabido que estaban usando activamente su producto de redes sociales”, dijeron.

Las familias Walton y Arroyo buscan una cantidad no especificada por daños y han solicitado un juicio con jurado en California.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd