インシデント 303の引用情報

Description: Google’s automated detection of abusive images of children incorrectly flagged a parent’s photo intended for a healthcare provider, resulting in a false police report of child abuse, and loss of access to his online accounts and information.
推定: Googleが開発し提供したAIシステムで、a software engineer named Mark parents using telemedicine servicesに影響を与えた

インシデントのステータス

インシデントID
303
レポート数
2
インシデント発生日
2022-08-21
エディタ
Khoa Lam
A Dad Took Photos of His Naked Toddler for the Doctor. Google Flagged Him as a Criminal.
nytimes.com · 2022

Mark noticed something amiss with his toddler. His son’s penis looked swollen and was hurting him. Mark, a stay-at-home dad in San Francisco, grabbed his Android smartphone and took photos to document the problem so he could track its progr…

Big tech gone bad: Google blocks accounts based on false child exploitation filter
siliconangle.com · 2022

The application of artificial intelligence in various aspects of life has been mostly a net positive, but what happens when machine learning algorithms cannot detect the difference between an innocent health photo and child exploitation mat…

バリアント

「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください