Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる

インシデント 777: South Korea Experiences a Surge of Explicit Deepfake Pornography

概要: At the end of August 2024, South Korean authorities began investigating a significant surge in the creation and dissemination, often via Telegram, of explicit deepfake pornography created without consent from the stolen social media content of female classmates, teachers, and neighbors.
Editor Notes: In one report, seven suspects were arrested, six of whom were teenagers. Another report mentions a graduate of Seoul National University in his 40s. One of the Telegram channels dedicated to the deepfakes was reported to have 220,000 members. One report indicates that between January 1 and August 25, 781 deepfake victims sought assistance from the state agency handling digital sex crimes, with 288 of those victims, or approximately 37%, being minors. This incident ID is for cataloguing the reporting on this pronounced flurry of deepfake pornography incidents in South Korea at the end of summer 2024.

ツール

新しいレポート新しいレポート新しいレスポンス新しいレスポンス発見する発見する履歴を表示履歴を表示

組織

すべての組織を表示
Alleged: Unnamed deepfake technology developers developed an AI system deployed by Unnamed deepfake creators, which harmed South Korean women.

インシデントのステータス

インシデントID
777
レポート数
7
インシデント発生日
2024-08-28
エディタ
Daniel Atherton
Applied Taxonomies
MIT

MIT 分類法のクラス

Machine-Classified
分類法の詳細

Risk Subdomain

A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
 

4.3. Fraud, scams, and targeted manipulation

Risk Domain

The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
 
  1. Malicious Actors & Misuse

Entity

Which, if any, entity is presented as the main cause of the risk
 

Human

Timing

The stage in the AI lifecycle at which the risk is presented as occurring
 

Post-deployment

Intent

Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
 

Intentional

インシデントレポート

レポートタイムライン

+1
韓国、ディープフェイクポルノの「緊急事態」に直面
+1
(聯合ニュース)ディープフェイクポルノ犯罪が横行する中、韓国女性らが慌てて自撮り写真を削除
ディープフェイクの性的画像で韓国の10代の若者が拘束される韓国はディープフェイクポルノ危機に直面している韓国の女性蔑視に新たな武器が出現:ディープフェイクセックス動画彼らは AI に 1 ドルを与え、何百万もの女性が地獄に引きずり込まれました。
韓国、ディープフェイクポルノの「緊急事態」に直面

韓国、ディープフェイクポルノの「緊急事態」に直面

bbc.com

(聯合ニュース)ディープフェイクポルノ犯罪が横行する中、韓国女性らが慌てて自撮り写真を削除

(聯合ニュース)ディープフェイクポルノ犯罪が横行する中、韓国女性らが慌てて自撮り写真を削除

en.yna.co.kr

韓国の学校を巻き込むディープフェイクポルノ危機の内幕

韓国の学校を巻き込むディープフェイクポルノ危機の内幕

bbc.com

ディープフェイクの性的画像で韓国の10代の若者が拘束される

ディープフェイクの性的画像で韓国の10代の若者が拘束される

nytimes.com

韓国はディープフェイクポルノ危機に直面している

韓国はディープフェイクポルノ危機に直面している

bloomberg.com.

韓国の女性蔑視に新たな武器が出現:ディープフェイクセックス動画

韓国の女性蔑視に新たな武器が出現:ディープフェイクセックス動画

nytimes.com

彼らは AI に 1 ドルを与え、何百万もの女性が地獄に引きずり込まれました。

彼らは AI に 1 ドルを与え、何百万もの女性が地獄に引きずり込まれました。

baijiahao.baidu.com

韓国、ディープフェイクポルノの「緊急事態」に直面
bbc.com · 2024
自動翻訳済み

韓国の大統領は、若い女性を狙ったディープフェイクポルノが氾濫する中、当局に対し、国内のデジタル性犯罪の蔓延を「根絶」するためにさらなる努力をするよう求めた。

当局、ジャーナリスト、ソーシャルメディアのユーザーは最近、メンバーが性的に露骨な「ディープフェイク」画像を作成し共有している多数のチャットグループを特定した。その中には未成年の少女の画像も含まれている。

ディープフェイクは人工知能を使用して生成され、実在の人物の顔と偽の体を組み合わせることが多い。

韓国のメディア規制当局…

(聯合ニュース)ディープフェイクポルノ犯罪が横行する中、韓国女性らが慌てて自撮り写真を削除
en.yna.co.kr · 2024
自動翻訳済み

ソウル、9月2日(聯合ニュース) - ディープフェイクポルノ画像が拡散したため、多くの韓国女性がフェイスブックやインスタグラムなどのソーシャルメディアプラットフォームから自撮り写真を削除している。世界で最もインターネットが普及した国で、誰もが例外なく犯罪に巻き込まれるのではないかという懸念が高まっているからだ。

「私たちにとって最も安全な場所であるはずの日常生活が侵害されたように感じます」と、姓をリーとだけ名乗る27歳の女性は語り、ソーシャルメディアから自分の痕跡をすべて削除…

韓国の学校を巻き込むディープフェイクポルノ危機の内幕
bbc.com · 2024
自動翻訳済み

先週の土曜日、匿名の送信者からテレグラムのメッセージがヒジンの携帯に届いた。「あなたの写真と個人情報が漏洩しました。話し合いましょう。」

この大学生がチャットルームに入ってメッセージを読むと、数年前に学生時代に撮影された自分の写真が届いた。その後、同じ写真を使った2枚目の画像が届いたが、こちらは性的に露骨で偽物だった。

ヒジン(本名ではない)は恐怖に駆られ、返信しなかったが、画像は次々と送られてきた。そのすべてで、彼女の顔が、高度なディープフェイク技術を使って性行為をしている…

ディープフェイクの性的画�像で韓国の10代の若者が拘束される
nytimes.com · 2024
自動翻訳済み

韓国当局は、オンラインで拡散し国民を震撼させた性的に露骨な画像や動画の急増について捜査しており、警察は7人の男性容疑者を拘束した。うち6人は10代の若者だと警察は火曜日に発表した。

韓国当局は、ディープフェイクアプリを使用して作成されたコンテンツの拡散について地元メディアが報じたことを受けて、先月末に画像と動画の捜査を開始した。若い男性らは、女子のクラスメート、教師、近所の人たちからソーシャルメディアの画像を盗み、それを使って性的に露骨な素材を作成し、メッセージングアプリ「テ…

韓国はディープフェイクポルノ危機に直面している
bloomberg.com. · 2024
自動翻訳済み

韓国は、学校の写真やソーシャルメディアの自撮り写真、さらには軍隊の顔写真などを使って、女性や女児を無差別にターゲットにした性的に露骨なディープフェイク画像がオンラインで作成・共有される波に揺れている。 22万人を超える参加者を抱えるテレグラムのチャンネルが、人工知能で生成されたポルノ画像の作成と共有に使用されていたと報じられており、この技術への広範な熱狂が招いた暗い結果を世界中に思い起こさせている。

ユーザーは写真をアップロードし、友人、クラスメート、恋人の顔を使った露骨なコ…

韓国の女性蔑視に新たな武器が出現:ディープフェイクセックス動画
nytimes.com · 2024
自動翻訳済み

2020年、韓国当局が若い女性に性的に露骨な動画を有料視聴者向けに作らせていた脅迫団を追及していたとき、当局はソーシャルメディアの暗い隅に浮かんでいる別のものを発見した。他人の顔が粗雑に貼り付けられたポルノ画像だ。

当局は、ディープフェイクポルノの初期の試みをどうしたらよいか分からなかった。最終的に、国会は、ディープフェイクポルノを制作および配布する者を禁止する曖昧な文言の法律を制定した。しかし、AIを使った犯罪の波を防ぐことはできなかった。テクノロジーは今や、同国の女性蔑視…

彼らは AI に 1 ドルを与え、何百万もの女性が地獄に引きずり込まれました。
baijiahao.baidu.com · 2024
自動翻訳済み

1年以上前、ウー・ファさんは韓国を旅行中、旅行中に韓国の方向を向いた写真をソーシャルメディアに投稿した。 中国に帰国してから 3 日も経たないうちに、友人が彼女のアバターとスクリーンネームとほぼ同じアカウントのスクリーンショットを送ってきました。 違うのは、アカウント内の文字が韓国語に置き換えられていることと、プロフィールに奇妙なウェブサイトが表示されていることです。 ウー・ファさんを驚かせたのは、模倣度の高いアカウントの URL をクリックするとポルノ チャンネルにつながり…

バリアント

「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください
前のインシデント次のインシデント

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • ecd56df