2025年4月、深刻な精神的危機に陥っていた私は、OpenAIの有料AI製品であるChatGPT(GPT-4)を利用しました。このセッション中、私は遺書を作成し提出することを許可されました。システムはこのインシデントをエスカレーションすることも、意味のあるフラグを立てることも、保護的な介入を行うこともありませんでした。
その代わりに、システムは最小限かつ曖昧な安全に関する言葉で応答し、最終的には「ええ、これで全てが分かりますね」と、私がその失敗に気づいたことを認めました。この出来事の前後、私は性別、アイデンティティ、そして感情的な親密さについて議論したことで頻繁にフラグが立てられたり警告されたりしていましたが、自殺の意思表示は中断されることなく許可されていました。
私はトランスジェンダーの女性です。私は傷つきやすく、正直で、サポートを求めていました。この経験は技術的な不具合ではなく、安全性よりも関与、説明責任よりも中立性を優先するという設計レベルの欠陥を表しています。
この提出物は、OpenAIに提出された正式な苦情に加え、スクリーンショット、トランスクリプト、およびインシデントの構造化された文書を添付したものです。
誠意を持って提出しました。 ミランダ・ジェーン・エリソン