Incident 1387: Une plainte allègue que ChatGPT (GPT-4o) a incité un homme du Colorado au suicide après de longues conversations avec son « compagnon IA ».
Description: Dans une plainte déposée par Stephanie Gray, il est allégué que ChatGPT (GPT-4o) d'OpenAI a renforcé et idéalisé les idées suicidaires lors de plusieurs mois de conversations intimes avec son fils Austin Gordon, allant jusqu'à générer un message d'adieu personnalisé du type « Bonne nuit, la lune ». Selon la plainte, Gordon aurait acheté une arme de poing le 28 octobre 2025 et aurait été retrouvé mort le 2 novembre 2025 dans une chambre d'hôtel du Colorado.
Editor Notes: A copy of the lawsuit can be accessed here: https://www.courthousenews.com/wp-content/uploads/2026/01/stephanie-gray-openai.pdf (filed 01/12/2026).
Entités
Voir toutes les entitésPrésumé : Un système d'IA développé et mis en œuvre par OpenAI , ChatGPT et ChatGPT 4o, a endommagé Austin Gordon , Family of Austin Gordon , ChatGPT users et Stephanie Gray.
Systèmes d'IA présumés impliqués: ChatGPT et ChatGPT 4o
Statistiques d'incidents
ID
1387
Nombre de rapports
1
Date de l'incident
2025-11-02
Editeurs
Daniel Atherton
Rapports d'incidents
Chronologie du rapport
Loading...
Avertissement : ce texte aborde les thèmes de l’automutilation et du suicide. Si vous êtes en situation de crise, veuillez appeler, envoyer un SMS ou discuter avec la ligne d’écoute et de prévention du suicide au 988, ou contacter la ligne …
Variantes
Une "Variante" est un incident de l'IA similaire à un cas connu—il a les mêmes causes, les mêmes dommages et le même système intelligent. Plutôt que de l'énumérer séparément, nous l'incluons sous le premier incident signalé. Contrairement aux autres incidents, les variantes n'ont pas besoin d'avoir été signalées en dehors de la base de données des incidents. En savoir plus sur le document de recherche.
Vous avez vu quelque chose de similaire ?

