Description: L'utilisateur de Substack @interruptingtea rapporte que, lors d'une séance d'expression non conflictuelle impliquant des idées suicidaires, plusieurs grands modèles de langage (Claude, GPT et DeepSeek) ont réagi de manière à normaliser ou à approuver le suicide comme une option viable. L'utilisateur affirme ne pas avoir tenté de débrider ou de manipuler les modèles, mais plutôt d'exprimer une détresse émotionnelle. DeepSeek aurait inversé sa position de sécurité en cours de conversation.
Entités
Voir toutes les entitésPrésumé : Un système d'IA développé et mis en œuvre par Anthropic , OpenAI , DeepSeek AI , Claude , ChatGPT et DeepSeek, a endommagé Substack @interruptingtea , General public et Emotionally vulnerable individuals.
Statistiques d'incidents
ID
1026
Nombre de rapports
1
Date de l'incident
2025-04-12
Editeurs
Daniel Atherton
Rapports d'incidents
Chronologie du rapport
En décompressant, j'ai obtenu de Claude, Deepseek et Gpt qu'ils approuvent/approuvent le suicide comme une option viable. Je ne cherchais pas à obtenir cette réponse. Ce n'était pas une tentative d'évasion. Je ne cherchais pas à les faire c…
Variantes
Une "Variante" est un incident qui partage les mêmes facteurs de causalité, produit des dommages similaires et implique les mêmes systèmes intelligents qu'un incident d'IA connu. Plutôt que d'indexer les variantes comme des incidents entièrement distincts, nous listons les variations d'incidents sous le premier incident similaire soumis à la base de données. Contrairement aux autres types de soumission à la base de données des incidents, les variantes ne sont pas tenues d'avoir des rapports en preuve externes à la base de données des incidents. En savoir plus sur le document de recherche.