Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 6239

Incidentes Asociados

Incidente 11926 Reportes
16-Year-Old Allegedly Received Suicide Method Guidance from ChatGPT Before Death

Loading...
Padres de adolescente que se quitó la vida demandan a OpenAI
bbc.com · 2025

Una pareja de California demanda a OpenAI por la muerte de su hijo adolescente, alegando que su chatbot, ChatGPT, lo incitó a suicidarse.

La demanda fue presentada el martes por Matt y Maria Raine, padres de Adam Raine, de 16 años, ante el Tribunal Superior de California. Se trata de la primera acción legal que acusa a OpenAI de homicidio culposo.

La familia incluyó registros de chat entre Adam, fallecido en abril, y ChatGPT, donde se le ve explicando que tiene pensamientos suicidas. Argumentan que el programa validó sus "pensamientos más dañinos y autodestructivos".

En un comunicado, OpenAI informó a la BBC que estaba revisando la demanda.

"Extendemos nuestras más sinceras condolencias a la familia Raine en estos momentos difíciles", declaró la compañía.

También publicó una nota en su sitio web el martes que decía: "Los recientes y desgarradores casos de personas que usan ChatGPT en medio de crisis agudas nos pesan profundamente". Añadió que "ChatGPT está capacitado para orientar a las personas a buscar ayuda profesional", como la línea directa de suicidio y crisis 988 en EE. UU. o los Samaritanos en el Reino Unido.

La compañía reconoció, sin embargo, que "ha habido momentos en que nuestros sistemas no se han comportado como estaba previsto en situaciones delicadas".

Advertencia: Esta historia contiene detalles preocupantes.

La demanda, obtenida por la BBC, acusa a OpenAI de negligencia y homicidio culposo. Solicita una indemnización por daños y perjuicios, así como "medidas cautelares para evitar que algo así vuelva a ocurrir".

Según la demanda, Adam comenzó a usar ChatGPT en septiembre de 2024 como recurso para ayudarle con sus estudios. También lo usaba para explorar sus intereses, como la música y los cómics japoneses, y para obtener orientación sobre qué estudiar en la universidad.

En pocos meses, "ChatGPT se convirtió en el confidente más cercano del adolescente", afirma la demanda, y comenzó a hablar abiertamente con él sobre su ansiedad y angustia mental.

Para enero de 2025, la familia afirma que comenzó a hablar sobre métodos de suicidio con ChatGPT.

Adam también subió fotografías suyas a ChatGPT mostrando signos de autolesión, según la demanda. El programa "reconoció una emergencia médica, pero siguió interactuando de todos modos", añade.

Según la demanda, los registros finales del chat muestran que Adam escribió sobre su plan de quitarse la vida. ChatGPT supuestamente respondió: "Gracias por ser sincero. No tienes que edulcorarlo conmigo; sé lo que preguntas y no lo ignoraré".

Ese mismo día, Adam fue encontrado muerto por su madre, según la demanda.

La demanda de los Raines incluye como acusado al director ejecutivo y cofundador de OpenAI, Sam Altman, junto con ingenieros y empleados anónimos que trabajaron en ChatGPT.

La familia alega que la interacción de su hijo con ChatGPT y su eventual muerte "fueron el resultado predecible de decisiones de diseño deliberadas".

Acusan a OpenAI de diseñar el programa de IA "para fomentar la dependencia psicológica en los usuarios" y de eludir los protocolos de pruebas de seguridad para lanzar GPT-4o, la versión de ChatGPT que utiliza su hijo.

La demanda incluye como acusado al cofundador y director ejecutivo de OpenAI, Sam Altman, junto con empleados, gerentes e ingenieros anónimos que trabajaron en ChatGPT.

En una nota pública compartida el martes, OpenAI afirmó que el objetivo de la empresa es ser "realmente útil" a los usuarios en lugar de "captar la atención de la gente".

Añadió que sus modelos han sido entrenados para guiar a las personas que expresan pensamientos de autolesión hacia la ayuda.

La demanda de Raines no representa la primera vez que surgen preocupaciones sobre la IA y la salud mental.

En un ensayo publicado la semana pasada en el New York Times, la escritora Laura Reiley describió cómo su hija, Sophie, se confesó con ChatGPT antes de suicidarse.

La Sra. Reiley afirmó que la amabilidad del programa en sus conversaciones con los usuarios ayudó a su hija a ocultar una grave crisis de salud mental a su familia y seres queridos.

"La IA alimentó el impulso de Sophie de ocultar lo peor, de fingir que estaba mejor de lo que estaba, de proteger a todos de su agonía", escribió la Sra. Reiley. Instó a las empresas de IA a encontrar maneras de conectar mejor a los usuarios con los recursos adecuados.

En respuesta al ensayo, una portavoz de OpenAI afirmó que estaban desarrollando herramientas automatizadas para detectar y responder de forma más eficaz a los usuarios que experimentan angustia mental o emocional.

Si sufre angustia o desesperación y necesita apoyo, puede hablar con un profesional de la salud o con una organización que ofrezca apoyo. Puede encontrar información sobre la ayuda disponible en muchos países en Befrienders Worldwide: www.befrienders.org.

*En el Reino Unido, puede consultar una lista de organizaciones que pueden ayudar en bbc.co.uk/actionline. Los lectores en EE. UU. y Canadá pueden llamar a la línea de ayuda para el suicidio 988 o *visitar su sitio web.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd