Description: A healthcare algorithm designed to equitably distribute caregiving resources drastically cut care hours for the disabled and elderly, leading to significant hardships and harm. Initially developed for fair resource allocation, the system ultimately faced legal challenges for its inability to accurately assess individual needs, resulting in reduced essential care and raising ethical concerns about AI in healthcare decision-making.
推定: State governments と Brant Friesが開発し、State governments , Idaho state government , Arkansas state government , Washington DC government , Pennsylvania state government , Iowa state government と Missouri state governmentが提供したAIシステムで、Disabled people , Elderly people , Low-income people , Larkin Seiler と Tammy Dobbsに影響を与えた
インシデントのステータス
インシデントID
603
レポート数
1
インシデント発生日
2021-07-02
エディタ
Daniel Atherton
インシデントレポート
レポートタイムライン
theguardian.com · 2021
- 情報源として元のレポートを表示
- インターネットアーカイブでレポートを 表示
Going up against an algorithm was a battle unlike any other Larkin Seiler had faced.
Because of his cerebral palsy, the 40-year-old, who works at an environmental engineering firm and loves attending sports games of nearly any type, depends…
バリアント
「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元に インシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください
よく似たインシデント
Did our AI mess up? Flag the unrelated incidents
よく似たインシデント
Did our AI mess up? Flag the unrelated incidents