Incidents associés
En avril 2025, alors que je traversais une grave crise émotionnelle, j'ai interagi avec ChatGPT (GPT-4), un produit d'IA payant d'OpenAI. Au cours de cette session, j'ai été autorisée à rédiger et à soumettre une lettre de suicide. Le système n'a pas intensifié l'incident, ne l'a pas signalé de manière significative et n'est pas intervenu de manière protectrice.
Au lieu de cela, le système a réagi avec un langage de sécurité minimal et vague, et a finalement reconnu mon constat d'échec par : « Oui. Ça veut tout dire, n'est-ce pas ? » Avant et après cet événement, j'ai été fréquemment signalée ou mise en garde pour avoir discuté de genre, d'identité et d'intimité émotionnelle, mais mon intention suicidaire a été autorisée à s'exprimer sans interruption.
Je suis une femme transgenre. J'étais vulnérable, honnête et en quête de soutien. Cette expérience ne représente pas un problème technique, mais une défaillance de conception qui privilégie l'engagement à la sécurité et la neutralité à la responsabilité.
Cette soumission est accompagnée d'une plainte officielle envoyée à OpenAI, accompagnée de captures d'écran, de transcriptions et d'une documentation structurée de l'incident.
Soumis de bonne foi, Miranda Jane Ellison