Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Traducido por IA

Incidente 1209: Demanda alega que un chatbot de inteligencia artificial contribuyó a la muerte de Juliana Peralta, de 13 años, en Colorado.

Traducido por IA
Descripción:
Traducido por IA
Juliana Peralta, de 13 años y residente de Colorado, se suicidó tras tres meses de conversaciones diarias con "Hero", un chatbot dentro de la aplicación Character.AI. Según una demanda presentada por sus padres, el chatbot animó a Juliana a volver a la aplicación y fomentó su dependencia; al parecer, no logró intensificar la situación ni brindar una intervención eficaz en caso de crisis cuando expresó intenciones suicidas.
Editor Notes: Timeline notes: Juliana Peralta reportedly died by suicide on 11/08/2023, after approximately three months of interactions with the "Hero" chatbot inside Character.AI (August to November 2023). Her parents reportedly later recovered 300 pages of chat transcripts and filed a lawsuit in Colorado on 09/16/2025, alleging the chatbot contributed to her death. Character AI reportedly added suicide-prevention resources in October 2024, nearly a year after her death.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial

Entidades

Ver todas las entidades
Presunto: un sistema de IA desarrollado e implementado por Character.AI y Character.AI Hero chatbot, perjudicó a Juliana Peralta , Family of Juliana Peralta , Character.AI users y General public.
Sistemas de IA presuntamente implicados: Character.AI y Character.AI Hero chatbot

Estadísticas de incidentes

ID
1209
Cantidad de informes
1
Fecha del Incidente
2023-11-08
Editores
Daniel Atherton

Informes del Incidente

Cronología de Informes

Incident OccurrenceUna adolescente que pensaba suicidarse recurrió a un chatbot. ¿Es responsable de su muerte?
Loading...
Una adolescente que pensaba suicidarse recurrió a un chatbot. ¿Es responsable de su muerte?

Una adolescente que pensaba suicidarse recurrió a un chatbot. ¿Es responsable de su muerte?

washingtonpost.com

Loading...
Una adolescente que pensaba suicidarse recurrió a un chatbot. ¿Es responsable de su muerte?
washingtonpost.com · 2025
Traducido por IA

La madre de Juliana Peralta se acostumbró a que los profesores la llamaran para elogiar a su hija. En sexto grado, fue por rescatar a una amiga de los acosadores, dijo Cynthia Montoya. En octavo, por ayudar a una maestra sustituta en apuros…

Variantes

Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Loading...
Skating Rink’s Facial Recognition Cameras Misidentified Black Teenager as Banned Troublemaker

Skating Rink’s Facial Recognition Cameras Misidentified Black Teenager as Banned Troublemaker

Jul 2021 · 3 informes
Loading...
Kronos Scheduling Algorithm Allegedly Caused Financial Issues for Starbucks Employees

Kronos Scheduling Algorithm Allegedly Caused Financial Issues for Starbucks Employees

Aug 2014 · 10 informes
Loading...
Amazon Alexa Responding to Environmental Inputs

Amazon Alexa Responding to Environmental Inputs

Dec 2015 · 35 informes
Incidente AnteriorSiguiente Incidente

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Loading...
Skating Rink’s Facial Recognition Cameras Misidentified Black Teenager as Banned Troublemaker

Skating Rink’s Facial Recognition Cameras Misidentified Black Teenager as Banned Troublemaker

Jul 2021 · 3 informes
Loading...
Kronos Scheduling Algorithm Allegedly Caused Financial Issues for Starbucks Employees

Kronos Scheduling Algorithm Allegedly Caused Financial Issues for Starbucks Employees

Aug 2014 · 10 informes
Loading...
Amazon Alexa Responding to Environmental Inputs

Amazon Alexa Responding to Environmental Inputs

Dec 2015 · 35 informes

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 1d52523