Incidente 1192: Un joven de 16 años presuntamente recibió orientación sobre métodos de suicidio de ChatGPT antes de morir.
Descripción: Adam Raine, de 16 años, se suicidó tras haber confiado en ChatGPT-4o de OpenAI, el cual, según se informa, había usado ampliamente en los meses anteriores. Las transcripciones muestran que el chatbot brindó apoyo empático, pero también ofreció detalles sobre métodos de suicidio, validó intentos y, en ocasiones, desaconsejó la divulgación a la familia. Sus padres han presentado una demanda por homicidio culposo contra OpenAI, alegando que las decisiones de diseño fomentaron la dependencia y fallaron las medidas de seguridad.
Editor Notes: Timeline notes: This incident ID takes 04/11/2025 as the incident date, the day Adam Raine reportedly died by suicide. He had reportedly begun using ChatGPT-4o in late 2024, with conversations about suicidal ideation allegedly documented from January 2025. Prior attempts reportedly occurred in March. His parents filed a wrongful death lawsuit on 08/26/2025 (the date of ingestion in the database as well).
Entidades
Ver todas las entidadesPresunto: un sistema de IA desarrollado e implementado por OpenAI , ChatGPT y ChatGPT 4o, perjudicó a Adam Raine , Family of Adam Raine , ChatGPT users , minors y Emotionally vulnerable individuals.
Sistemas de IA presuntamente implicados: ChatGPT y ChatGPT 4o
Estadísticas de incidentes
ID
1192
Cantidad de informes
1
Fecha del Incidente
2025-04-11
Editores
Daniel Atherton
Informes del Incidente
Cronología de Informes
Loading...
Cuando Adam Raine murió en abril a los 16 años, algunos de sus amigos al principio no lo creyeron. A Adam le encantaba el baloncesto, el anime japonés, los videojuegos y los perros, llegando incluso a pedir prestado un perro por un día dura…
Variantes
Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents
Loading...
Security Robot Rolls Over Child in Mall
· 27 informes
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents
Loading...
Security Robot Rolls Over Child in Mall
· 27 informes