Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
自動翻訳済み

インシデント 1335: OpenDream AIプラットフォームがAI生成のCSAMと非合意のディープフェイク性的画像を商業化したと報道

自動翻訳済み
概要:
自動翻訳済み
CBM Media Pte Ltdが運営するAI画像生成プラットフォーム「OpenDream」は、公開ギャラリーと有料のNSFWツールを通じて、ユーザーがAI生成のCSAM(性的マイノリティ)や合意のない性的ディープフェイクを作成し、収益化することを可能にしていたと報じられています。このコンテンツは数ヶ月間、公開され、検索エンジンにもインデックスされていましたが、2024年半ばに限定的なモデレーションが実施され、GoogleとBingによる削除と広告および決済サービスの停止につながりました。
Editor Notes: Reported timeline of events: (1) Deepfakes and materials attributed to the OpenDream platform reportedly began appearing in December 2023. (2) Bellingcat published its investigation on 10/14/2024. (3) The incident ID was created 01/10/2026.

ツール

新しいレポート新しいレポート新しいレスポンス新しいレスポンス発見する発見する履歴を表示履歴を表示

組織

すべての組織を表示
Alleged: CBM Media Pte Ltd developed an AI system deployed by OpenDream users と OpenDream, which harmed Victims of non-consensual deepfakes , minors , General public と Children.
関与が疑われるAIシステム: OpenDream platform

インシデントレポート

レポートタイムライン

Incident Occurrence

バリアント

「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください
似たようなものを見つけましたか?
レビュー前
インシデント発生日:
2024-10-14

よく似たインシデント

テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Loading...
YouTube's Algorithms Failed to Remove Violating Content Related to Suicide and Self-Harm

YouTube's Algorithms Failed to Remove Violating Content Related to Suicide and Self-Harm

Feb 2019 · 3 レポート
Loading...
Google’s YouTube Kids App Presents Inappropriate Content

Google’s YouTube Kids App Presents Inappropriate Content

May 2015 · 13 レポート
Loading...
TikTok’s “For You” Algorithm Exposed Young Users to Pro-Eating Disorder Content

TikTok’s “For You” Algorithm Exposed Young Users to Pro-Eating Disorder Content

Jul 2019 · 3 レポート
前のインシデント次のインシデント

よく似たインシデント

テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Loading...
YouTube's Algorithms Failed to Remove Violating Content Related to Suicide and Self-Harm

YouTube's Algorithms Failed to Remove Violating Content Related to Suicide and Self-Harm

Feb 2019 · 3 レポート
Loading...
Google’s YouTube Kids App Presents Inappropriate Content

Google’s YouTube Kids App Presents Inappropriate Content

May 2015 · 13 レポート
Loading...
TikTok’s “For You” Algorithm Exposed Young Users to Pro-Eating Disorder Content

TikTok’s “For You” Algorithm Exposed Young Users to Pro-Eating Disorder Content

Jul 2019 · 3 レポート

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • f5f2449