概要: OpenAIのAI搭載文字起こしツール「Whisper」は、患者の医師との診察などの音声コンテンツの翻訳・書き起こしに使用され、「人間レベルの堅牢性と精度」を謳っています。しかし、ソフトウェアエンジニア、開発者、学術研究者らは、Whisperがテキストの断片や文章全体を捏造する傾向があり、幻覚の中には人種差別的な発言、暴力的な言説、さらには想像上の医療行為まで含まれる可能性があると指摘しています。
推定: OpenAIが開発し提供したAIシステムで、patients , Patients reliant on Whisper と Medical practitioners reliant on Whisperに影響を与えた
インシデントのステータス
Risk Subdomain
A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
7.3. Lack of capability or robustness
Risk Domain
The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
- AI system safety, failures, and limitations
Entity
Which, if any, entity is presented as the main cause of the risk
AI
Timing
The stage in the AI lifecycle at which the risk is presented as occurring
Post-deployment
Intent
Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
Unintentional
インシデントレポート
レポートタイムライン
サンフランシスコ(AP通信)---テクノロジーの巨人OpenAIは、人工知能を搭載した同社の文字起こしツールWhisperが「人間レベルの堅牢性と正確性」を備えていると宣伝している。
しかし、Whisperには大きな欠陥がある。10人以上のソフトウェアエンジニア、開発者、学術研究者へのインタビューによると、Whisperはテキストの塊や文章全体を捏造する傾向がある。これらの専門家によると、捏造されたテキスト(業界では幻覚と呼ばれる)には、人種差別的なコメント、暴力的なレトリッ…
バリアント
「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してくださ い
似たようなものを見つけましたか?
よく似たインシデント
Did our AI mess up? Flag the unrelated incidents
よく似たインシデント
Did our AI mess up? Flag the unrelated incidents