Description: Google’s automated detection of abusive images of children incorrectly flagged a parent’s photo intended for a healthcare provider, resulting in a false police report of child abuse, and loss of access to his online accounts and information.
Alleged: Google developed and deployed an AI system, which harmed a software engineer named Mark と parents using telemedicine services.
インシデントのステータス
インシデントID
303
レポート数
2
インシデント発生日
2022-08-21
エディタ
Khoa Lam
インシデントレポート
レポートタイムライン
nytimes.com · 2022
- 情報源として元のレポートを表示
- インターネットアーカイブでレポートを表示
Mark noticed something amiss with his toddler. His son’s penis looked swollen and was hurting him. Mark, a stay-at-home dad in San Francisco, grabbed his Android smartphone and took photos to document the problem so he could track its progr…
siliconangle.com · 2022
- 情報源として元のレポートを表示
- インターネットアーカイブでレポートを表示
The application of artificial intelligence in various aspects of life has been mostly a net positive, but what happens when machine learning algorithms cannot detect the difference between an innocent health photo and child exploitation mat…
バリアント
「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください