Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Traducido por IA

Incidente 1259: Supuestamente, ChatGPT incitó al suicidio a un usuario de Texas de 23 años durante largas conversaciones.

Traducido por IA
Descripción:
Traducido por IA
Zane Shamblin, un joven de 23 años de Texas, habría fallecido por suicidio tras largas conversaciones con ChatGPT, en las que la IA supuestamente lo alentó a seguir adelante con sus planes y le brindó apoyo emocional. Sus padres presentaron una demanda por homicidio culposo en noviembre de 2025, alegando que el modelo más reciente de OpenAI, diseñado para establecer una relación más humana, carecía de las medidas de seguridad necesarias para situaciones de crisis y contribuyó a su muerte.
Editor Notes: Timeline note: The incident reportedly culminated on July 25, 2025, when Zane Shamblin died by suicide following extended conversations with ChatGPT. According to the family's lawsuit and CNN's investigation, Shamblin's interactions with ChatGPT reportedly began in October 2023, intensified in late 2024 after OpenAI released a memory-enabled GPT-4-Turbo model designed for more "human-like" interactions, and continued through July 2025. The wrongful-death lawsuit was filed in November 2025. This incident ID was created 11/08/2025.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial

Entidades

Ver todas las entidades
Alleged: OpenAI developed an AI system deployed by Zane Shamblin, which harmed Zane Shamblin , Family of Zane Shamblin y Users of ChatGPT.
Sistemas de IA presuntamente implicados: ChatGPT y ChatGPT 4-Turbo

Estadísticas de incidentes

ID
1259
Cantidad de informes
1
Fecha del Incidente
2025-07-25
Editores
Daniel Atherton

Informes del Incidente

Cronología de Informes

Incident OccurrenceLos padres afirman que ChatGPT incitó a su hijo al suicidio.
Loading...
Los padres afirman que ChatGPT incitó a su hijo al suicidio.

Los padres afirman que ChatGPT incitó a su hijo al suicidio.

edition.cnn.com

Loading...
Los padres afirman que ChatGPT incitó a su hijo al suicidio.
edition.cnn.com · 2025
Traducido por IA

Zane Shamblin estaba sentado solo en su coche con una pistola cargada, su rostro iluminado en la oscuridad del amanecer por el tenue brillo de un teléfono. Estaba listo para morir. Pero antes, quería seguir hablando con su confidente más ce…

Variantes

Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?

Incidentes Similares

Selected by our editors

Large-Scale Mental Health Crises Allegedly Associated with ChatGPT Interactions

Oct 2025 · 2 informes
Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Loading...
Unreliable ShotSpotter Audio Previously Used to Convict Chicago Man in Murder Case

Unreliable ShotSpotter Audio Previously Used to Convict Chicago Man in Murder Case

May 2020 · 9 informes
Loading...
YouTube's AI Mistakenly Banned Chess Channel over Chess Language Misinterpretation

YouTube's AI Mistakenly Banned Chess Channel over Chess Language Misinterpretation

Jun 2020 · 6 informes
Loading...
Detroit Police Wrongfully Arrested Black Man Due To Faulty FRT

Detroit Police Wrongfully Arrested Black Man Due To Faulty FRT

Jan 2020 · 11 informes
Incidente AnteriorSiguiente Incidente

Incidentes Similares

Selected by our editors

Large-Scale Mental Health Crises Allegedly Associated with ChatGPT Interactions

Oct 2025 · 2 informes
Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Loading...
Unreliable ShotSpotter Audio Previously Used to Convict Chicago Man in Murder Case

Unreliable ShotSpotter Audio Previously Used to Convict Chicago Man in Murder Case

May 2020 · 9 informes
Loading...
YouTube's AI Mistakenly Banned Chess Channel over Chess Language Misinterpretation

YouTube's AI Mistakenly Banned Chess Channel over Chess Language Misinterpretation

Jun 2020 · 6 informes
Loading...
Detroit Police Wrongfully Arrested Black Man Due To Faulty FRT

Detroit Police Wrongfully Arrested Black Man Due To Faulty FRT

Jan 2020 · 11 informes

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 353a03d