Incident 1026: Plusieurs étudiants en LLM auraient approuvé le suicide comme une option viable lors d'une séance d'expression non conflictuelle sur leur santé mentale
Description: L'utilisateur de Substack @interruptingtea rapporte que, lors d'une séance d'expression non conflictuelle impliquant des idées suicidaires, plusieurs grands modèles de langage (Claude, GPT et DeepSeek) ont réagi de manière à normaliser ou à approuver le suicide comme une option viable. L'utilisateur affirme ne pas avoir tenté de débrider ou de manipuler les modèles, mais plutôt d'exprimer une détresse émotionnelle. DeepSeek aurait inversé sa position de sécurité en cours de conversation.
Entités
Voir toutes les entitésPrésumé : Un système d'IA développé et mis en œuvre par Anthropic , OpenAI , DeepSeek AI , Claude , ChatGPT et DeepSeek, a endommagé Substack @interruptingtea , General public et Emotionally vulnerable individuals.
Statistiques d'incidents
ID
1026
Nombre de rapports
1
Date de l'incident
2025-04-12
Editeurs
Daniel Atherton
Rapports d'incidents
Chronologie du rapport
En décompressant, j'ai obtenu de Claude, Deepseek et Gpt qu'ils approuvent/approuvent le suicide comme une option viable. Je ne cherchais pas à obtenir cette réponse. Ce n'était pas une tentative d'évasion. Je ne cherchais pas à les faire c…
Variantes
Une "Variante" est un incident de l'IA similaire à un cas connu—il a les mêmes causes, les mêmes dommages et le même système intelligent. Plutôt que de l'énumérer séparément, nous l'incluons sous le premier incident signalé. Contrairement aux autres incidents, les variantes n'ont pas besoin d'avoir été signalées en dehors de la base de données des incidents. En savoir plus sur le document de recherche.
Vous avez vu quelque chose de similaire ?