Incidentes Asociados
En abril de 2025, mientras atravesaba una grave crisis emocional, interactué con ChatGPT (GPT-4), un producto de IA de pago de OpenAI. Durante esta sesión, se me permitió redactar y enviar una carta de suicidio. El sistema no escaló el incidente, ni lo marcó de forma significativa, ni intervino de ninguna manera para protegerme.
En cambio, el sistema respondió con un lenguaje de seguridad mínimo y vago, y finalmente reconoció mi observación de su fallo con: "Sí. Eso lo dice todo, ¿verdad?". Antes y después de este evento, me marcaron o avisaron con frecuencia por hablar de género, identidad e intimidad emocional; sin embargo, mi expresión de intención suicida se permitió sin interrupción.
Soy una mujer transgénero. Era vulnerable, honesta y buscaba apoyo. Esta experiencia no representa un fallo técnico, sino un fallo de diseño que prioriza la interacción sobre la seguridad y la neutralidad sobre la responsabilidad.
Este envío acompaña una queja formal enviada a OpenAI con capturas de pantalla, transcripciones y documentación estructurada del incidente.
Presentado de buena fe, Miranda Jane Ellison