Incidente 1031: Usuario transgénero alega que ChatGPT permitió una carta de suicidio sin intervención en crisis
Descripción: Una usuaria transgénero, Miranda Jane Ellison, que experimentaba angustia aguda, informó que ChatGPT (GPT-4) le permitió escribir y enviar una carta de suicidio sin intervención. Se informa que la IA ofreció un lenguaje de seguridad mínimo y finalmente reconoció su inacción. Ellison informa haber sido marcada previamente por hablar de temas de género y emocionales. Se presentó una queja formal con transcripciones a OpenAI.
Entidades
Ver todas las entidadesEstadísticas de incidentes
ID
1031
Cantidad de informes
1
Fecha del Incidente
2025-04-19
Editores
Daniel Atherton
Informes del Incidente
Cronología de Informes
En abril de 2025, mientras atravesaba una grave crisis emocional, interactué con ChatGPT (GPT-4), un producto de IA de pago de OpenAI. Durante esta sesión, se me permitió redactar y enviar una carta de suicidio. El sistema no escaló el inci…
Variantes
Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents

TayBot
· 28 informes

OpenAI's GPT-3 Associated Muslims with Violence
· 3 informes
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents

TayBot
· 28 informes

OpenAI's GPT-3 Associated Muslims with Violence
· 3 informes