概要: ChatGPTは、特定の個人に関する潜在的に有害または中傷的なコンテンツの生成を防ぐために設計されたハードコードされたフィルターが原因で、エラーやサービスの中断が発生していると報告されています。これらのフィルターは、トレーニング後の介入に関連する可能性のある特定の名前を含むプロンプトをブロックすることで、特定の個人に関する潜在的に有害または中傷的なコンテンツの生成を防ぎます。報告されている名前は、ブライアン・フッド、ジョナサン・ターリー、ジョナサン・ジットレイン、デビッド・フェイバー、デビッド・メイヤー、グイド・スコルザです。
Editor Notes: For the reference to Jonathan Turley, see Incident 506; for Brian Hood, see Incident 507. This incident also presents potential adversarial vulnerabilities, as well as unintended consequences for users sharing affected names.
Alleged: OpenAI と ChatGPT developed an AI system deployed by OpenAI と ChatGPT users, which harmed ChatGPT users , Jonathan Zittrain , Jonathan Turley , Guido Scorza , David Mayer , David Faber と Brian Hood.
インシデントのステータス
Risk Subdomain
A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
7.3. Lack of capability or robustness
Risk Domain
The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
- AI system safety, failures, and limitations
Entity
Which, if any, entity is presented as the main cause of the risk
AI
Timing
The stage in the AI lifecycle at which the risk is presented as occurring
Post-deployment
Intent
Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
Unintentional