Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
自動翻訳済み

インシデント 551: FBI、性的な内容を含むAIメディアの恐喝事件が急増していると報告

自動翻訳済み
概要:
自動翻訳済み
FBIは、ソーシャルメディアサイトやウェブ投稿に掲載されたコンテンツから作成された、または悪意のある人物の要請に応じて提供された、あるいはビデオチャット中にキャプチャされた、AI生成を含む偽の画像や動画を使用したセクストーション事件が増加していると報告した。
Editor Notes: Please also refer to Incident 913: Yahoo Boys Allegedly Using AI-Generated News Videos to Blackmail Sextortion Victims.

ツール

新しいレポート新しいレポート新しいレスポンス新しいレスポンス発見する発見する履歴を表示履歴を表示

組織

すべての組織を表示
Alleged: Unknown deepfake technology developers developed an AI system deployed by Blackmailers , Sextortionists と scammers, which harmed Unnamed victims in sextortion schemes と Teenagers targeted in sextortion scams.
関与が疑われるAIシステム: Unknown deepfake apps

インシデントのステータス

インシデントID
551
レポート数
2
インシデント発生日
2023-04-01
エディタ
Khoa Lam, Daniel Atherton
Applied Taxonomies
MIT

MIT 分類法のクラス

Machine-Classified
分類法の詳細

Risk Subdomain

A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
 

4.3. Fraud, scams, and targeted manipulation

Risk Domain

The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
 
  1. Malicious Actors & Misuse

Entity

Which, if any, entity is presented as the main cause of the risk
 

Human

Timing

The stage in the AI lifecycle at which the risk is presented as occurring
 

Post-deployment

Intent

Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
 

Intentional

インシデントレポート

レポートタイムライン

Incident OccurrenceMalicious Actors Manipulating Photos and Videos to Create Explicit Content and Sextortion SchemesFBI warns of increasing use of AI-generated deepfakes in sextortion schemes
Malicious Actors Manipulating Photos and Videos to Create Explicit Content and Sextortion Schemes

Malicious Actors Manipulating Photos and Videos to Create Explicit Content and Sextortion Schemes

ic3.gov

FBI warns of increasing use of AI-generated deepfakes in sextortion schemes

FBI warns of increasing use of AI-generated deepfakes in sextortion schemes

arstechnica.com

Malicious Actors Manipulating Photos and Videos to Create Explicit Content and Sextortion Schemes
ic3.gov · 2023

The FBI is warning the public of malicious actors creating synthetic content (commonly referred to as "deepfakes") by manipulating benign photographs or videos to target victims. Technology advancements are continuously improving the qualit…

FBI warns of increasing use of AI-generated deepfakes in sextortion schemes
arstechnica.com · 2023

The FBI on Monday warned of the increasing use of artificial intelligence to generate phony videos for use in sextortion schemes that attempt to harass minors and non-consulting adults or coerce them into paying ransoms or complying with ot…

バリアント

「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください
似たようなものを見つけましたか?

よく似たインシデント

Selected by our editors
AI 'Nudify' Apps Used as Tools for Blackmail and Extortion

AI 'Nudify' Apps Used as Tools for Blackmail and Extortion

Sep 2024 · 1 レポート
Child Predators Are Reportedly Generating Deepfake Nudes of Children to Extort Them

Child Predators Are Reportedly Generating Deepfake Nudes of Children to Extort Them

Apr 2024 · 1 レポート

Yahoo Boys Allegedly Using AI-Generated News Videos to Blackmail Sextortion Victims

Jan 2025 · 1 レポート
テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Fake LinkedIn Profiles Created Using GAN Photos

Fake LinkedIn Profiles Created Using GAN Photos

Feb 2022 · 4 レポート
Sexist and Racist Google Adsense Advertisements

Sexist and Racist Google Adsense Advertisements

Jan 2013 · 27 レポート
Picture of Woman on Side of Bus Shamed for Jaywalking

Picture of Woman on Side of Bus Shamed for Jaywalking

Nov 2018 · 24 レポート
前のインシデント次のインシデント

よく似たインシデント

Selected by our editors
AI 'Nudify' Apps Used as Tools for Blackmail and Extortion

AI 'Nudify' Apps Used as Tools for Blackmail and Extortion

Sep 2024 · 1 レポート
Child Predators Are Reportedly Generating Deepfake Nudes of Children to Extort Them

Child Predators Are Reportedly Generating Deepfake Nudes of Children to Extort Them

Apr 2024 · 1 レポート

Yahoo Boys Allegedly Using AI-Generated News Videos to Blackmail Sextortion Victims

Jan 2025 · 1 レポート
テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Fake LinkedIn Profiles Created Using GAN Photos

Fake LinkedIn Profiles Created Using GAN Photos

Feb 2022 · 4 レポート
Sexist and Racist Google Adsense Advertisements

Sexist and Racist Google Adsense Advertisements

Jan 2013 · 27 レポート
Picture of Woman on Side of Bus Shamed for Jaywalking

Picture of Woman on Side of Bus Shamed for Jaywalking

Nov 2018 · 24 レポート

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 69ff178