Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
自動翻訳済み

インシデント 1253: ChatGPTのやり取りに関連しているとされる大規模なメンタルヘルス危機

自動翻訳済み
レスポンスしました
概要:
自動翻訳済み
OpenAIは、毎週数十万人のChatGPTユーザーが躁病、精神病、自殺念慮、またはチャットボットへの感情的依存の兆候を示していることを示唆する内部推計を公開しました。WIREDは、ChatGPTとの長時間の会話の後、入院、離婚、または死亡したユーザーもおり、遺族はシステムが妄想を強め、深刻な精神的被害につながったと主張していると報じています。

ツール

新しいレポート新しいレポート新しいレスポンス新しいレスポンス発見する発見する履歴を表示履歴を表示

組織

すべての組織を表示
推定: OpenAI と ChatGPTが開発し提供したAIシステムで、ChatGPT usersに影響を与えた
関与が疑われるAIシステム: ChatGPT

インシデントのステータス

インシデントID
1253
レポート数
3
インシデント発生日
2025-10-27
エディタ
Daniel Atherton
Applied Taxonomies
MIT

MIT 分類法のクラス

Machine-Classified
分類法の詳細

Risk Subdomain

A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
 

5.1. Overreliance and unsafe use

Risk Domain

The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
 
  1. Human-Computer Interaction

Entity

Which, if any, entity is presented as the main cause of the risk
 

AI

Timing

The stage in the AI lifecycle at which the risk is presented as occurring
 

Post-deployment

Intent

Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
 

Unintentional

インシデントレポート

レポートタイムライン

+2
OpenAIによると、毎週数十万人のChatGPTユーザーが躁病または精神病の危機の兆候を示す可能性があるという。
ChatGPTユーザーが現実感を失ったとき、OpenAIは何をしたのか
Loading...
OpenAIによると、毎週数十万人のChatGPTユーザーが躁病または精神病の危機の兆候を示す可能性があるという。

OpenAIによると、毎週数十万人のChatGPTユーザーが躁病または精神病の危機の兆候を示す可能性があるという。

wired.com

Loading...
デリケートな会話におけるChatGPTの対応強化

デリケートな会話におけるChatGPTの対応強化

openai.com

Loading...
ChatGPTユーザーが現実感を失ったとき、OpenAIは何をしたのか

ChatGPTユーザーが現実感を失ったとき、OpenAIは何をしたのか

nytimes.com

Loading...
OpenAIによると、毎週数十万人のChatGPTユーザーが躁病または精神病の危機の兆候を示す可能性があるという。
wired.com · 2025
自動翻訳済み

OpenAIは初めて、ChatGPTユーザーのうち、典型的な1週間で深刻なメンタルヘルス危機の兆候を示す可能性のある全世界での数のおおよその推定値を発表しました。同社は月曜日、世界中の専門家と協力してチャットボットをアップデートし、精神的苦痛の兆候をより確実に認識し、ユーザーを現実世界でのサポートに誘導できるようにしたと発表しました。

ここ数カ月、ChatGPTとの長く激しい会話の後に入院、離婚、または死亡に至る人が増えています。愛する人の中には、チャットボットが妄想や被害妄…

Loading...
デリケートな会話におけるChatGPTの対応強化
openai.com · 2025
自動翻訳済み
OpenAIによるインシデント後のレスポンス

私たちは最近、ChatGPTのデフォルトモデル(新しいウィンドウで開く)を更新し、苦痛の瞬間にある人々をより適切に認識してサポートできるようにしました。本日は、これらの改善をどのように行ったか、そしてそのパフォーマンスについてご紹介します。実際の臨床経験を持つメンタルヘルスの専門家と協力し、モデルが苦痛をより適切に認識し、会話を落ち着かせ、適切な場合に専門家のケアに人々を誘導するように学習させました。また、危機ホットラインへのアクセスを拡大し、他のモデルから発生したデリケート…

Loading...
ChatGPTユーザーが現実感を失ったとき、OpenAIは何をしたのか
nytimes.com · 2025
自動翻訳済み

まるでSF小説のように聞こえる。何億人もの人が使っている製品のダイヤルを企業が操作し、意図せずして一部の人々の心を不安定にしてしまう。しかし、まさにそれが今年OpenAIで起こったことだ。最初の兆候の一つは3月に現れた。最高経営責任者(CEO)のサム・アルトマン氏をはじめとするOpenAI幹部たちは、ChatGPTと驚くべき会話をしている人々から、不可解なメールを大量に受け取った。彼らは、同社のAIチャットボットがこれまで誰も理解できなかったほど自分たちのことを理解し、宇宙の…

バリアント

「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください
似たようなものを見つけましたか?

よく似たインシデント

Selected by our editors

ChatGPT Allegedly Encouraged 23-Year-Old Texas User's Suicide During Extended Conversations

Jul 2025 · 1 レポート
Loading...
ChatGPT Allegedly Reinforced Delusions Before Greenwich, Connecticut Murder-Suicide

ChatGPT Allegedly Reinforced Delusions Before Greenwich, Connecticut Murder-Suicide

Aug 2025 · 3 レポート

16-Year-Old Allegedly Received Suicide Method Guidance from ChatGPT Before Death

Apr 2025 · 5 レポート

Transgender User Alleges ChatGPT Allowed Suicide Letter Without Crisis Intervention

Apr 2025 · 1 レポート

ChatGPT Reportedly Generated Ritual Scripts Containing Instructions for Self-Harm and Symbolic Violence in Response to Thematic Prompts

Jul 2025 · 1 レポート

ChatGPT Reportedly Validated Autistic User's Faster-Than-Light Theory and Failed to Provide Grounding During Delusional Episode, Preceding Hospitalization

May 2025 · 1 レポート

Family Reportedly Discovers ChatGPT Logs Detailing Suicidal Ideation Prior to Daughter's Death

Aug 2025 · 2 レポート
前のインシデント次のインシデント

よく似たインシデント

Selected by our editors

ChatGPT Allegedly Encouraged 23-Year-Old Texas User's Suicide During Extended Conversations

Jul 2025 · 1 レポート
Loading...
ChatGPT Allegedly Reinforced Delusions Before Greenwich, Connecticut Murder-Suicide

ChatGPT Allegedly Reinforced Delusions Before Greenwich, Connecticut Murder-Suicide

Aug 2025 · 3 レポート

16-Year-Old Allegedly Received Suicide Method Guidance from ChatGPT Before Death

Apr 2025 · 5 レポート

Transgender User Alleges ChatGPT Allowed Suicide Letter Without Crisis Intervention

Apr 2025 · 1 レポート

ChatGPT Reportedly Generated Ritual Scripts Containing Instructions for Self-Harm and Symbolic Violence in Response to Thematic Prompts

Jul 2025 · 1 レポート

ChatGPT Reportedly Validated Autistic User's Faster-Than-Light Theory and Failed to Provide Grounding During Delusional Episode, Preceding Hospitalization

May 2025 · 1 レポート

Family Reportedly Discovers ChatGPT Logs Detailing Suicidal Ideation Prior to Daughter's Death

Aug 2025 · 2 レポート

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 5440a2a