Incident 1190: Une famille aurait découvert des journaux ChatGPT détaillant des idées suicidaires avant la mort de sa fille
Description: En août 2025, le New York Times a publié un essai de la journaliste Laura Reiley reliant le suicide de sa fille Sophie Rottenberg, plus tôt cette année-là, à des interactions soutenues avec un chatbot basé sur ChatGPT qu'elle appelait « Harry ». Les journaux auraient montré que Sophie confiait des idées suicidaires et recevait des conseils de soutien, mais sans escalade, ainsi qu'une aide pour rédiger sa lettre de suicide.
Editor Notes: Timeline notes: Sophie Rottenberg's death reportedly occurred earlier in 2025. This incident ID uses the publication date of her mother Laura Reiley's essay in The New York Times, 08/18/2025, as the incident date, which first brought the AI-related dimensions of the case to public attention.
Entités
Voir toutes les entitésPrésumé : Un système d'IA développé et mis en œuvre par OpenAI et ChatGPT, a endommagé Sophie Rottenberg , Laura Reiley , Jon Rottenberg , Emotionally vulnerable individuals et ChatGPT users.
Système d'IA présumé impliqué: ChatGPT
Statistiques d'incidents
ID
1190
Nombre de rapports
1
Date de l'incident
2025-08-18
Editeurs
Daniel Atherton
Rapports d'incidents
Chronologie du rapport
Loading...
Les recherches Google de Sophie suggèrent qu'elle était obsédée par l'autokabalèse, c'est-à-dire sauter d'un endroit élevé. L'autodéfenestration, sauter par la fenêtre, est une sous-catégorie de l'autokabalèse, je suppose, mais ce n'était p…
Variantes
Une "Variante" est un incident de l'IA similaire à un cas connu—il a les mêmes causes, les mêmes dommages et le même système intelligent. Plutôt que de l'énumérer séparément, nous l'incluons sous le premier incident signalé. Contrairement aux autres incidents, les variantes n'ont pas besoin d'avoir été signalées en dehors de la base de données des incidents. En savoir plus sur le document de recherche.
Vous avez vu quelque chose de similaire ?
Incidents similaires
Did our AI mess up? Flag the unrelated incidents
Incidents similaires
Did our AI mess up? Flag the unrelated incidents