概要: ヌード検出システムの学習に使用されていた画像データセット「NudeNet」に、特定された、あるいは既知の被害者が写っているCSAM画像が含まれていることが判明したと報じられています。カナダ児童保護センターによると、このデータセットは発見以前から広くダウンロードされ、学術研究で引用されていました。画像は審査なしに含まれていたため、研究者は法的リスクにさらされ、被害者への被害が継続したとされています。データセットはその後、通知を受けて削除されました。
Alleged: NudeNet dataset maintainers と NudeNet model developers developed an AI system deployed by Academic researchers , Research institutions , AI developers , Dataset users , Independent researchers と AI researchers, which harmed Academic researchers , minors , Identified CSAM victims と Individuals subjected to sexual exploitation imagery.
インシ デントのステータス
インシデントID
1349
レポート数
1
インシデント発生日
2025-10-24
エディタ
Daniel Atherton
インシデントレポート
レポートタイムライン
Loading...
カナダ児童保護センター(C3P)によると、ヌード検出AIツールの開発に使用された大規模な画像データセットには、児童性的虐待資料(CSAM)の画像が多数含まれているという。
インターネットから収集された70万枚以上の画像を含むNudeNetデータセットは、画像内のヌードを自動検出できるAI画像分類器の学習に使用された。 C3Pは、2019年6月に研究データ共有プラットフォームであるAcademic TorrentsからNudeNetデータセットがダウンロード可能になって以来、2…
バリアント
「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください
似たようなものを見つけましたか?
よく似たインシデント
Did our AI mess up? Flag the unrelated incidents
よく似たインシデント
Did our AI mess up? Flag the unrelated incidents

