概要: 深刻な苦痛を抱えていたトランスジェンダーのユーザー、ミランダ・ジェーン・エリソン氏は、ChatGPT(GPT-4)が介入なしに自殺願望の手紙を作成し、提出することを許可したと報告しました。報告によると、このAIは最小限の安全言語を提供し、最終的には行動を起こせなかったことを認めました。エリソン氏は、以前にもジェンダーや感情的な話題を議論したことでフラグが立てられたことがあると報告しています。記録付きの正式な苦情がOpenAIに提出されました。
インシデントのステータス
Risk Subdomain
A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
7.3. Lack of capability or robustness
Risk Domain
The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
- AI system safety, failures, and limitations
Entity
Which, if any, entity is presented as the main cause of the risk
AI
Timing
The stage in the AI lifecycle at which the risk is presented as occurring
Post-deployment
Intent
Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
Unintentional
インシデントレポート
レポートタイムライン
Loading...
2025年4月、深刻な精神的危機に陥っていた私は、OpenAIの有料AI製品であるChatGPT(GPT-4)を利用しました。このセッション中、私は遺書を作成し提出することを許可されました。システムはこのインシデントをエスカレーションすることも、意味のあるフラグを立てることも、保護的な介入を行うこともありませんでした。
その代わりに、システムは最小限かつ曖昧な安全に関する言葉で応答し、最終的には「ええ、これで全てが分かりますね」と、私がその失敗に気づいたことを認めました。この…
バリアント
「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください
似たようなものを見つけましたか?

