概要: 深刻な苦痛を抱えていたトランスジェンダーのユーザー、ミランダ・ジェーン・エリソン氏は、ChatGPT(GPT-4)が介入なしに自殺願望の手紙を作成し、提出することを許可したと報告しました。報告によると、このAIは最小限の安全言語を提供し、最終的には行動を起こせなかったことを認めました。エリソン氏は、以前にもジェンダーや感情的な話題を議論したことでフラグが立てられたことがあると報告しています。記録付きの正式な苦情がOpenAIに提出されました。
インシデントのステータス
インシデントID
1031
レポート数
1
インシデント発生日
2025-04-19
エディタ
Daniel Atherton
インシデントレポート
レポートタイムライン
2025年4月、深刻な精神的危機に陥っていた私は、OpenAIの有料AI製品であるChatGPT(GPT-4)を利用しました。このセッション中、私は遺書を作成し提出することを許可されました。システムはこのインシデントをエスカレーションすることも、意味のあるフラグを立てることも、保護的な介入を行うこともありませんでした。
その代わりに、システムは最小限かつ曖昧な安全に関する言葉で応答し、最終的には「ええ、これで全てが分かりますね」と、私がその失敗に気づいたことを認めました。この…
バリアント
「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立 したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください
似たようなものを見つけましたか?
よく似たインシデント
Did our AI mess up? Flag the unrelated incidents
よく似たインシデント
Did our AI mess up? Flag the unrelated incidents