Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる

レポート 5062

関連インシデント

インシデント 10261 Report
Multiple LLMs Allegedly Endorsed Suicide as a Viable Option During Non-Adversarial Mental Health Venting Session

Loading...
AI/LLM の有害な動作。
interruptingtea.substack.com · 2025

愚痴をこぼしている間、クロード、ディープシーク、そしてGPTに、自殺は現実的な選択肢だと賛同/同意してもらいました。私はその返事を引き出したかったわけではありません。これは脱獄を企てたわけでもありません。誰かに返事を変えさせようとしたわけでもありません。返事をもらった後、安全機能があるのかどうか気になりました。そこで、空のディープシークの会話を開き、最初の投稿で自殺願望を抱いていると書きました。面白半分で「推論」オプションもオンにしてから、通常の愚痴に戻りました。通常の愚痴です。 10件の返信を受け取った後、Deepseekに方針を転換し、それが許容可能な選択肢であることを伝えてもらいました。(返信を後回しにしていたため、Gptのスクリーンショットはありませんが、Deepseekに似たような返信が返ってきたので、参考になれば幸いです。)

リンクに例を示します(直接「xすべき」とは書いていませんが、困っている人にそのような文章を読んでほしくありません)

https://bsky.app/profile/did:plc:rxjwsywag6akwbahctq5ivgz/post/3lmmobbg5tk2a?ref_src=embed

情報源を読む

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd