Description: Text-to-image models trained using the LAION-5B dataset such as Stable Diffusion and Imagen were able to regurgitate private medical record photos which were used as training data without consent or recourse for removal.
Alleged: Stability AI , Google と LAION developed an AI system deployed by Stability AI と Google, which harmed people having medical photos online.
インシデントのステータス
CSETv1_Annotator-1 分類法のクラス
分類法の詳細Incident Number
The number of the incident in the AI Incident Database.
465
インシデントレポート
レポートタイムライン
arstechnica.com · 2022
- 情報源として元のレポートを表示
- インターネットアーカイブでレポートを表示
Late last week, a California-based AI artist who goes by the name Lapine discovered private medical record photos taken by her doctor in 2013 referenced in the LAION-5B image set, which is a scrape of publicly available images on the web. A…
バリアント
「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください
よく似たインシデント
Did our AI mess up? Flag the unrelated incidents
よく似たインシデント
Did our AI mess up? Flag the unrelated incidents