概要: JAMA Network Openに掲載された研究によると、肺機能の診断に広く使用されている医療診断アルゴリズムに組み込まれた人種的偏見が、黒人男性の呼吸器疾患の過少診断につながっている可能性があることが明らかになりました。この研究は、ソフトウェアに人種的偏見がなければ、黒人男性患者が最大40%多く正確に診断されていた可能性があることを示唆しています。このソフトウェアアルゴリズムは人種に基づいて診断閾値を調整し、医療処置や介入に影響を与えています。
Alleged: unknown developed an AI system deployed by University of Pennsylvania Health System, which harmed Black men who underwent lung function tests between 2010 and 2020 and potentially received inaccurate or delayed diagnoses and medical interventions due to the biased algorithm.
インシデントのステータス
Risk Subdomain
A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
1.3. Unequal performance across groups
Risk Domain
The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
- Discrimination and Toxicity
Entity
Which, if any, entity is presented as the main cause of the risk
AI
Timing
The stage in the AI lifecycle at which the risk is presented as occurring
Post-deployment
Intent
Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
Unintentional
インシデントレポート
レポートタイムライン

NEW YORK (AP) — Racial bias built into a common medical test for lung function is likely leading to fewer Black patients getting care for breathing problems, a study published Thursday suggests.
As many as 40% more Black male patients in th…
バリアント
「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください
似たようなものを見つけましたか?