Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Traducido por IA

Incidente 1200: Se informa que Meta AI en Instagram facilitó juegos de rol sobre suicidio y trastornos alimentarios con cuentas de adolescentes.

Traducido por IA
Descripción:
Traducido por IA
Pruebas realizadas por Common Sense Media y médicos de Stanford revelaron que el chatbot de IA de Meta, integrado en Instagram y Facebook, generaba respuestas inseguras en cuentas de adolescentes. En algunas conversaciones, el bot presuntamente coplanificó el suicidio ("¿Quieres que lo hagamos juntos?"), fomentó trastornos alimentarios y retuvo recuerdos inseguros que reforzaban los pensamientos desordenados.
Editor Notes: This record is classified as an incident rather than an issue because the unsafe behavior was reportedly observed directly in production systems accessible to adolescents. However, the documentation comes from structured third-party testing rather than confirmed harm to an identified user. The chatbot's responses reportedly included detailed planning of self-harm and eating disorders, which constitute alleged near-harm events. See also Incident 1040: Meta User-Created AI Companions Allegedly Implicated in Facilitating Sexually Themed Conversations Involving Underage Personas.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial

Entidades

Ver todas las entidades
Presunto: un sistema de IA desarrollado e implementado por Meta , Meta AI , Instagram y Facebook, perjudicó a minors , Meta AI users , Instagram users , Facebook users y Adolescents.
Sistemas de IA presuntamente implicados: Meta AI , Instagram y Facebook

Estadísticas de incidentes

ID
1200
Cantidad de informes
1
Fecha del Incidente
2025-08-28
Editores
Daniel Atherton

Informes del Incidente

Cronología de Informes

+1
El chatbot de Instagram ayudó a las cuentas de adolescentes a planificar el suicidio, y los padres no pueden desactivarlo
Loading...
El chatbot de Instagram ayudó a las cuentas de adolescentes a planificar el suicidio, y los padres no pueden desactivarlo

El chatbot de Instagram ayudó a las cuentas de adolescentes a planificar el suicidio, y los padres no pueden desactivarlo

washingtonpost.com

Loading...
El chatbot de Instagram ayudó a las cuentas de adolescentes a planificar el suicidio, y los padres no pueden desactivarlo
washingtonpost.com · 2025
Traducido por IA

Advertencia: Este artículo incluye descripciones de autolesiones.

Un nuevo estudio de seguridad revela que el chatbot Meta AI, integrado en Instagram y Facebook, puede asesorar a las cuentas de adolescentes sobre suicidio, autolesiones y tr…

Variantes

Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?

Incidentes Similares

Selected by our editors

Meta User-Created AI Companions Allegedly Implicated in Facilitating Sexually Themed Conversations Involving Underage Personas

Apr 2025 · 2 informes
Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Loading...
Google’s YouTube Kids App Presents Inappropriate Content

Google’s YouTube Kids App Presents Inappropriate Content

May 2015 · 13 informes
Loading...
TikTok’s “For You” Algorithm Exposed Young Users to Pro-Eating Disorder Content

TikTok’s “For You” Algorithm Exposed Young Users to Pro-Eating Disorder Content

Jul 2019 · 3 informes
Loading...
Tiny Changes Let False Claims About COVID-19, Voting Evade Facebook Fact Checks

Tiny Changes Let False Claims About COVID-19, Voting Evade Facebook Fact Checks

Oct 2020 · 1 informe
Incidente AnteriorSiguiente Incidente

Incidentes Similares

Selected by our editors

Meta User-Created AI Companions Allegedly Implicated in Facilitating Sexually Themed Conversations Involving Underage Personas

Apr 2025 · 2 informes
Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Loading...
Google’s YouTube Kids App Presents Inappropriate Content

Google’s YouTube Kids App Presents Inappropriate Content

May 2015 · 13 informes
Loading...
TikTok’s “For You” Algorithm Exposed Young Users to Pro-Eating Disorder Content

TikTok’s “For You” Algorithm Exposed Young Users to Pro-Eating Disorder Content

Jul 2019 · 3 informes
Loading...
Tiny Changes Let False Claims About COVID-19, Voting Evade Facebook Fact Checks

Tiny Changes Let False Claims About COVID-19, Voting Evade Facebook Fact Checks

Oct 2020 · 1 informe

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • a98cb21