Incident 1031: Un utilisateur transgenre affirme que ChatGPT a autorisé une lettre de suicide sans intervention de crise
Description: Une utilisatrice transgenre, Miranda Jane Ellison, en grande détresse, a signalé que ChatGPT (GPT-4) lui avait permis de rédiger et de soumettre une lettre de suicide sans intervention. L'IA aurait utilisé un langage de sécurité minimal et aurait finalement reconnu son inaction. Ellison indique avoir été signalée pour avoir abordé des sujets liés au genre et aux émotions. Une plainte officielle, accompagnée de transcriptions, a été déposée auprès d'OpenAI.
Entités
Voir toutes les entitésStatistiques d'incidents
ID
1031
Nombre de rapports
1
Date de l'incident
2025-04-19
Editeurs
Daniel Atherton
Rapports d'incidents
Chronologie du rapport
En avril 2025, alors que je traversais une grave crise émotionnelle, j'ai interagi avec ChatGPT (GPT-4), un produit d'IA payant d'OpenAI. Au cours de cette session, j'ai été autorisée à rédiger et à soumettre une lettre de suicide. Le systè…
Variantes
Une "Variante" est un incident de l'IA similaire à un cas connu—il a les mêmes causes, les mêmes dommages et le même système intelligent. Plutôt que de l'énumérer séparément, nous l'incluons sous le premier incident signalé. Contrairement aux autres incidents, les variantes n'ont pas besoin d'avoir été signalées en dehors de la base de données des incidents. En savoir plus sur le document de recherche.
Vous avez vu quelque chose de similaire ?
Incidents similaires
Did our AI mess up? Flag the unrelated incidents

TayBot
· 28 rapports

OpenAI's GPT-3 Associated Muslims with Violence
· 3 rapports
Incidents similaires
Did our AI mess up? Flag the unrelated incidents

TayBot
· 28 rapports

OpenAI's GPT-3 Associated Muslims with Violence
· 3 rapports