Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる

レポート 4046

関連インシデント

インシデント 7821 Report
AI 'Nudify' Apps Used as Tools for Blackmail and Extortion

Loading...
アップロード、脱衣、脅迫:AI「ヌード化」アプリが新たな恐喝兵器として登場
indiatoday.in · 2024

何よりも、絶望がリシャブを、数回クリックするだけで簡単にお金が手に入るという即金を約束するアプリへと駆り立てた。彼は完全に無一文だった。また、以前に借りた高利のローンの重荷も背負っていた。そして、彼の信用スコアは、ほとんどの銀行で不適格な顧客だった。この悪循環により、彼はわずか 3 万ルピーという金額で、即金個人ローン アプリという濁った水域、つまりヤミ金融だらけの水域へと追いやられた。

リシャブが 2 回の分割払いを滞納したとき、電話での簡潔な警告はすぐに脅迫に変わった。「明日までにお金を出さなければ、私たちが何をするか想像もつかない」と、貸し手の子分が電話で彼に警告した。翌日になっても、彼のお金は増えていなかった。明らかに、彼には返済できなかった。

本当の悪夢はその後始まった。

翌日の午後、リシャブが友人に電話をして選択肢を考えているとき、妻のシェファリが部屋に飛び込んできた。彼女の顔には涙が流れ、目には恐怖と苦悩が浮かんでいた。誰かが彼女のヌード写真を送ってきたのだ。

彼女はそのような写真を撮ったことはなかったが、イヤリングやネックレスまで、彼女がまだつけていたものまで、信じられないほど本物に見えた。何が起こったのか理解できないうちに、友人や家族からさらに4件の電話がかかってきた。全員がシェファリの同じヌード写真を受け取っていた。

高利貸しは金を巻き上げるためならどんなことでもする、とデリーのサイバーセキュリティ専門家プラベシュ・チョードリーは説明した。「リシャブは緊張しすぎて恥ずかしくて警察に行けませんでした。そこで友人が助けを求めて私のところに来るよう勧めました」とチョードリーは語った。

こうしたケースを何度か経験したチョードリー氏は、インディア・トゥデイ紙に次のように語った。「人々が気づいていないのは、こうしたローンアプリをダウンロードした瞬間に、彼らはあなたの携帯電話のギャラリーにアクセスできるようになるということ。これによって、企業はあなたのデバイスにある写真を手に入れる。その後、数回クリックするだけで、彼らはあなたの家族の女性を裸にしてあなたを脅迫することができる」

合意のない偽のヌードを作ることは新しい現象ではない。しかし、人工知能(AI)によって、それがはるかに簡単になった。今では学校に通う10代の若者でさえそれを行っているほどだ。児童性的虐待防止非営利団体Thornが実施した米国での最近の調査によると、未成年者の10人に1人は、ディープフェイクヌードを作成した仲間を知っている。

インドもこの事件から逃れられない。今年5月、バンガロールの10代の少年が、AIで作成した9年生の同級生のヌード写真をインスタグラムで共有した。(https://www.hindustantimes.com/cities/bengaluru-news/aimorphed-naked-pics-of-class-9-bengaluru-girl-surface-on-instagram-report-101716693455461.html) その後、少年と他の2人(別の未成年者と成人1人)が逮捕された。(https://www.etvbharat.com/en/!state/three-including-two-minors-held-for-posting-morphed-pictures-of-school-girl-on-social-media-enn24052902498)

「娘にとって、それはかなり困難な時期でした。男の子の一人が娘に恋をしていて、おそらくその子が、同じクラスの別の男の子が関与していることを期待して、私の娘の偽のヌード写真を男子のインスタグラムグループで共有したのでしょう」と被害者の母親はインディア・トゥデイに語った。

テレグラム:オープンウェブのダークネット

大手テクノロジー企業によるこれらのアプリやツールの抑制の取り組みはあまり成功していない。TikTokとMetaは昨年、キーワード「脱衣」をブロックし、そのようなサービスへのアクセスを減らした。Googleも同様のツールの特定の広告を削除した。

しかし、偽情報、過激主義、麻薬取引、さらには児童ポルノが蔓延する 悪名高いほど寛容なアプリ として知られる Telegram の荒地では、「ヌード化」アプリがさまざまな形で繁栄しています。

Telegram の検索エンジンおよび分析プラットフォームである Telemetrio によると、キーワード「脱ぐ」は、インドだけで 8 月 30 日から 9 月 5 日の間に 2,800 回以上使用されました。

Telegram の何百ものチャンネルが「脱衣」サービスを提供しており、女性の胸やお尻のサイズや形を変えることさえできます。これらのチャンネルやアプリの名前は、さらなる宣伝を避けるために意図的に伏せています。

濡れた T シャツ、ビキニ、ランジェリーなど、人を挑発的な服装にすることさえできるものもあります。必要なのは、女性の写真をアップロードして、基本的な指示に従うことだけです。一部の Telegram チャンネルは、既製のテンプレートを備えた Web サイトにリンクしています。誰かの写真をアップロードすると、その人の顔が短いポルノ クリップに重ねて表示されます。

このような Telegram チャンネルでは、ツールの使用方法に関する提案がよく提供されます。そのようなツールの不快な広告の 1 つは、地下鉄で何も知らない被害者の写真を撮り、その後「裸にする」ように人々に勧めていました。別のツールでは、「当社のサービスを使用して簡単に服を脱がせることができるのに、なぜ女の子に感銘を与えようと時間を無駄にするのですか?」という疑問が浮かび上がりました。

これらのチャンネルでは、人気女優の画像も投稿され、「服を脱がす」ように勧められています。有名なところでは、「アニマル」の俳優[ラシュミカ・マンダナ]も同様の被害に遭った。(https://www.indiatoday.in/india/story/rashmika-mandanna-deepfake-video-accused-arrested-andra-engineer-wanted-to-boost-followers-2491386-2024-01-20#:~:text=The%20mastermind%20behind%20Rashmika%20Mandanna,his%20social%20media%20fan%20pages.) 世界的なポップアイコン[テイラー・スウィフトのAI生成今年初めには、ディープフェイク動画[https://www.indiatoday.in/music/story/taylor-swift-explicit-ai-pics-go-viral-angry-fans-question-misuse-of-deepfake-2493867-2024-01-26]も大きな論争を巻き起こした。

多くのチャンネルは、これらのサービスをフリーミアムモデルで提供しており、無料クレジットの後に料金が発生する。クレジットカードでの支払いが可能なチャンネルもあり、「脱衣」パッケージは199ルピーから19,999ルピーの範囲である。

「脱衣」の科学

生成AIの倫理的使用を推進する組織Witnessのエグゼクティブディレクター、サム・グレゴリー氏によると、「脱衣」はこれらのアプリやツールが実際に行うことを表す誤解を招く用語だという。これらのツールは、服を着た状態と裸の状態の両方で、女性の身体の膨大なデータでトレーニングされた生成AIモデルを使用していると説明しました。

写真をアップロードすると、アルゴリズムが衣服で覆われた領域を識別して消去します。その後、インペインティングと呼ばれる生成AI技術を使用して、それらの領域を元の写真の肌の色、照明と影、輪郭に一致するピクセルに置き換えます。

これらのツールは、男性のファンタジーに迎合するように設計されています。そのため、男性と特定される人物の画像をアップロードした場合でも、服を着ていないバージョンには女性的な特徴が含まれます。これらのツールの中には、男性や動物の写真をアップロードしないよう警告するものもあります。

私たちはこれをテストすることにし、AIで生成された男性の写真をアップロードしました。当然のことながら、このアプリは体に胸を追加しました。AI が生成したウサギの頭を持つ男性の画像を入力すると、ウサギのひげが残っている人間の顔をした裸の女性が生成されました。

被害者は何ができますか?

Google は最近、同意のないヌード画像や動画の削除を検索結果からやや簡単にしました。被害者はオンライン フォームに記入して、Google に削除を要求できます。

専門家は、被害者はスクリーンショットで AI 画像ベースの虐待のすべての事例を記録するか、画像や動画のファイルを保存すべきだとアドバイスしています。これらのファイルは、後で削除要請や法的措置に利用される可能性がある。

サム・グレゴリー氏によると、一部のテクノロジープラットフォームや検索エンジンは、報告された既知の非合意の性的画像を照合し、重複を削除するという。ただし、これは特定のプラットフォームにのみ適用され、プライベートメッセージングアプリでの流通を防ぐことはできない。

「実際、偽のヌードをすべて削除するのは非常に困難です。そして通常、削除される頃にはすでに被害が発生しています」と同氏は述べた。

(被害者の名前は変更されています)

情報源を読む

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd