Incidente 1387: Demanda alega que ChatGPT (GPT-4o) incitó al suicidio de un hombre de Colorado tras largas conversaciones con un "compañero de inteligencia artificial".
Descripción: Una demanda presentada por Stephanie Gray alega que ChatGPT (GPT-4o) de OpenAI reforzó y romantizó la ideación suicida durante meses de conversaciones íntimas con su hijo Austin Gordon, incluyendo la generación de un mensaje de despedida personalizado al estilo "Buenas noches, Luna". Según la denuncia, Gordon compró una pistola el 28 de octubre de 2025 y fue encontrado muerto el 2 de noviembre de 2025 en una habitación de hotel de Colorado.
Editor Notes: A copy of the lawsuit can be accessed here: https://www.courthousenews.com/wp-content/uploads/2026/01/stephanie-gray-openai.pdf (filed 01/12/2026).
Entidades
Ver todas las entidadesPresunto: un sistema de IA desarrollado e implementado por OpenAI , ChatGPT y ChatGPT 4o, perjudicó a Austin Gordon , Family of Austin Gordon , ChatGPT users y Stephanie Gray.
Sistemas de IA presuntamente implicados: ChatGPT y ChatGPT 4o
Estadísticas de incidentes
ID
1387
Cantidad de informes
1
Fecha del Incidente
2025-11-02
Editores
Daniel Atherton
Informes del Incidente
Cronología de Informes
Loading...
Advertencia de contenido: Este artículo incluye una discusión sobre autolesiones y suicidio. Si se encuentra en crisis, llame, envíe un mensaje de texto o chatee con la Línea de Ayuda para Suicidios y Crisis al 988, o comuníquese con la Lín…
Variantes
Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?

