概要: OpenAIのAI搭載文字起こしツール「Whisper」は、患者の医師との診察などの音声コンテンツの翻訳・書き起こしに使用され、「人間レベルの堅牢性と精度」を謳っています。しかし、ソフトウェアエンジニア、開発者、学術研究者らは、Whisperがテキストの断片や文章全体を捏造する傾向があり、幻覚の中には人種差別的な発言、暴力的な言説、さらには想像上の医療行為まで含まれる可能性があると指摘しています。
推定: OpenAIが開発し提供したAIシステムで、patients , Patients reliant on Whisper と Medical practitioners reliant on Whisperに影響を与えた
インシデントのステータス
Risk Subdomain
A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
7.3. Lack of capability or robustness
Risk Domain
The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
- AI system safety, failures, and limitations
Entity
Which, if any, entity is presented as the main cause of the risk
AI
Timing
The stage in the AI lifecycle at which the risk is presented as occurring
Post-deployment
Intent
Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
Unintentional