Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
組織

Individuals subjected to sexual exploitation imagery

影響を受けたインシデント

インシデント 13491 Report
AI Training Dataset for Detecting Nudity Allegedly Found to Contain CSAM Images of Identified Victims

2025-10-24

An image dataset, NudeNet, used to train systems for detecting nudity was reportedly found to contain CSAM images, including material involving identified or known victims. According to the Canadian Centre for Child Protection, the dataset had been widely downloaded and cited in academic research prior to discovery. The images were allegedly included without vetting, exposing researchers to legal risk and perpetuating harm to victims. The dataset was subsequently removed following notification.

もっと

関連団体
同じインシデントに関連するその他のエンティティ。たとえば、インシデントの開発者がこのエンティティで、デプロイヤーが別のエンティティである場合、それらは関連エンティティとしてマークされます。
 

Entity

Academic researchers

影響を受けたインシデント
  • インシデント 1349
    1 レポート

    AI Training Dataset for Detecting Nudity Allegedly Found to Contain CSAM Images of Identified Victims

Incidents involved as Deployer
  • インシデント 1349
    1 レポート

    AI Training Dataset for Detecting Nudity Allegedly Found to Contain CSAM Images of Identified Victims

もっと
Entity

Research institutions

Incidents involved as Deployer
  • インシデント 1349
    1 レポート

    AI Training Dataset for Detecting Nudity Allegedly Found to Contain CSAM Images of Identified Victims

もっと
Entity

AI developers

Incidents involved as Deployer
  • インシデント 1349
    1 レポート

    AI Training Dataset for Detecting Nudity Allegedly Found to Contain CSAM Images of Identified Victims

もっと
Entity

Dataset users

Incidents involved as Deployer
  • インシデント 1349
    1 レポート

    AI Training Dataset for Detecting Nudity Allegedly Found to Contain CSAM Images of Identified Victims

もっと
Entity

Independent researchers

Incidents involved as Deployer
  • インシデント 1349
    1 レポート

    AI Training Dataset for Detecting Nudity Allegedly Found to Contain CSAM Images of Identified Victims

もっと
Entity

AI researchers

Incidents involved as Deployer
  • インシデント 1349
    1 レポート

    AI Training Dataset for Detecting Nudity Allegedly Found to Contain CSAM Images of Identified Victims

もっと
Entity

NudeNet dataset maintainers

Incidents involved as Developer
  • インシデント 1349
    1 レポート

    AI Training Dataset for Detecting Nudity Allegedly Found to Contain CSAM Images of Identified Victims

もっと
Entity

NudeNet model developers

Incidents involved as Developer
  • インシデント 1349
    1 レポート

    AI Training Dataset for Detecting Nudity Allegedly Found to Contain CSAM Images of Identified Victims

もっと
Entity

minors

影響を受けたインシデント
  • インシデント 1349
    1 レポート

    AI Training Dataset for Detecting Nudity Allegedly Found to Contain CSAM Images of Identified Victims

もっと
Entity

Identified CSAM victims

影響を受けたインシデント
  • インシデント 1349
    1 レポート

    AI Training Dataset for Detecting Nudity Allegedly Found to Contain CSAM Images of Identified Victims

もっと
Entity

NudeNet

Incidents implicated systems
  • インシデント 1349
    1 レポート

    AI Training Dataset for Detecting Nudity Allegedly Found to Contain CSAM Images of Identified Victims

もっと
Entity

AI image classification systems

Incidents implicated systems
  • インシデント 1349
    1 レポート

    AI Training Dataset for Detecting Nudity Allegedly Found to Contain CSAM Images of Identified Victims

もっと
Entity

AI content detection models

Incidents implicated systems
  • インシデント 1349
    1 レポート

    AI Training Dataset for Detecting Nudity Allegedly Found to Contain CSAM Images of Identified Victims

もっと
Entity

Dataset scraping and aggregation pipelines

Incidents implicated systems
  • インシデント 1349
    1 レポート

    AI Training Dataset for Detecting Nudity Allegedly Found to Contain CSAM Images of Identified Victims

もっと

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • d690bcc