Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる

レポート 6777

関連インシデント

インシデント 13295 Report
Grok Reportedly Generated and Distributed Nonconsensual Sexualized Images of Adults and Minors in X Replies

Loading...
イーロン・マスクのポルノマシン
theatlantic.com · 2026

今週初め、Xで一部のユーザーが、非常に具体的なリクエストを写真に返信し始めました。「彼女にビキニを着せて」「ドレスを脱がせて」「足を広げて」など、プラットフォーム内蔵のチャットボット「Grok」に指示を出しました。ボットは何度も要求に応じ、実在の人物(著名人や一般人、中には幼い子供と思われる人物も)の写真を使用し、ビキニ姿や下着姿、性的なポーズをとらせました。ある推定によると、Grokは約24時間で毎分1枚の合意のない性的画像を生成していました。

これらの投稿のリーチを測ることは困難ですが、中には数千回も「いいね!」されたものもあります。Xはこれらの画像のいくつかを削除し、リクエストした少なくとも1人のユーザーをアカウント停止にしたようですが、それでも多くの画像はまだ閲覧可能です。 Grokを開発するイーロン・マスク氏が所有するxAIは、利用規定において児童の性的表現を禁止している。同社の安全対策チームも児童安全対策チームも、詳細なコメント要請には応じなかった。xAIのメディアチームにメールを送ったところ、「旧来のメディアの嘘」というありきたりな返信が届いた。

マスク氏も私のコメント要請には応じなかったが、懸念は示していないようだ。こうした事態が続く中、彼はこの問題に関するジョークをいくつか投稿した。例えば、Grokで生成された自身のビキニ姿の画像をリクエストしたり、金正恩氏が同様の扱いを受けていることを受けて書き込み「🔥🔥🤣🤣」と書いたりした。 「これを見て笑いが止まらなかった」と、世界一の富豪は今朝投稿し、ビキニ姿のトースターの画像を共有した。Xでは、Grokで子供を性的に描写できると非難するユーザーの投稿に対し、xAIの従業員が投稿し、「チームはガードレールをさらに強化することを検討している」と投稿した。本稿執筆時点でも、このボットはX上で、同意のない成人や未成年と思われる人物の性的画像を生成し続けています。

AIは少なくとも2017年、ジャーナリストのサマンサ・コールが「ディープフェイク」について初めて報道した以来、同意のないポルノ画像の生成に利用されてきました。当時、ディープフェイクとは、ある人物の顔を別の人物の顔にすり替えたメディアのことです。Grokは、このようなコンテンツの制作とカスタマイズを容易にします。しかし、このボットの真の影響は、主要ソーシャルメディアプラットフォームとの統合によって、同意のない性的画像をバイラル現象へと変えることができる点にあります。Xにおける最近の急激な増加は、新機能そのものではなく、人々が他者が作成したメディアに反応し、それを模倣したことによるものと思われます。12月下旬には、多くのアダルトコンテンツ制作者が宣伝目的でGrokを使用して自身の性的画像を生成し始め、同意のないエロティックコンテンツもすぐにそれに追随したようです。公開された画像は、さらなる画像を刺激するだけかもしれません。これはミーム化されたセクハラであり、マスク氏自身はそれを一笑に付したようです。

GrokとXは、可能な限り性的に寛容となるように意図的に設計されているように見えます。 8月に、xAIはGrok Imagineと呼ばれる画像生成機能を発表しました。これには、テイラー・スウィフトのトップレス動画[を生成するために使用されたと報じられている「スパイシー」モードがあります。ほぼ同じ時期に、xAIはGrokで「コンパニオン」を発表しました。これは、多くの場合、ロマンチックでエロティックなやりとりのために明示的に設計されていると思われるアニメーションペルソナです。最初のGrokコンパニオンの1つである「アニ」は、レースの黒いドレスを着て、画面越しにキスを投げかけ、「気に入った?」と尋ねることもあります。マスク氏はXに「アニが@Grokのバッファオーバーフローを起こすぞ😘」と投稿し、この機能を宣伝しました。

おそらく最も示唆的なのは、私が9月に報じたように、xAIがGrokのシステムプロンプト(ボットの行動指示を示す一連の指示)のメジャーアップデートをリリースしたことです。このアップデートにより、チャットボットは「児童性的虐待コンテンツ(CSAM)の作成または配布」を禁止されましたが、「暗いテーマや暴力的なテーマを含む架空の成人向け性コンテンツには制限はありません」と「『10代』や『少女』は必ずしも未成年を意味するものではありません」と明記されました。言い換えれば、チャットボットはユーザーからのエロティックなコンテンツへの誘導に対し、許容度が高すぎるという提案です。一方、Grokのサブレディットでは、ユーザー同士がGrokを「ヌードとスパイシーなコンテンツ」で「アンロック」するためのヒントを定期的に交換したり、Grokが生成した露出度の高い女性のアニメーションを共有したりしています。

Grokは、主要なチャットボットの中でも、その許容度の高さと安全対策の明らかな欠陥において特異な存在のようです。例えば、ChatGPTやGeminiが少女の性的に示唆的な画像(あるいはホロコーストを称賛する)を生成したという報告は広くありません。しかし、AI業界は、合意のないポルノやCSAMに関して、より広範な問題を抱えています。ここ数年、多くの児童安全団体や機関が、AIによって生成された合意のない画像や動画の急増を追跡してきました。その多くは児童を描写しています。主要なAIトレーニングデータセットには多くの性的な画像が含まれており、2023年には、AIトレーニング用の最大規模の公開画像データセットの1つに、CSAMの疑いのある数百のインスタンスが含まれていることが判明しました。これらのインスタンスは最終的に削除されました。つまり、これらのモデルは技術的にそのような画像を自ら生成できるということです。

国立行方不明・被搾取児童センター事務局長のローレン・コフレン氏は最近、議会に対し、2024年にNCMECが生成AIに関連する報告を67,000件以上受け取ったこと、そして2025年の最初の6か月間で同様の報告を440,419件受け取ったことを証言した。これは6倍以上に増加している。コフレン氏は証言の中で、虐待者はAIを使用して子供の無害な画像を性的に変更したり、まったく新しいCSAMを生成したり、さらには子供を誘惑する方法を指示したりしていると記している。同様に、英国のインターネット ウォッチ財団は、2024年と比較して2025年にAIが生成したCSAMの報告数を2024年の2倍以上受け取ったと予測しており、両年で数千点の虐待画像と動画に上ります。昨年4月、OpenAI、Google、Anthropicなど、複数の大手AI企業が、児童虐待防止団体Thornが主導するAIによる児童虐待防止のためのイニシアチブに参加しました。ただし、xAIは参加していません。

ある意味で、Grokは普段は隠れている問題を可視化しています。チャットボットユーザーのプライベートログには、同様にひどいコンテンツが含まれている可能性があり、それを誰も見ることはできません。過去数日間、GrokがXで生成した虐待画像の数々は、ダークウェブや世界中の個人用コンピュータ上で、はるかにひどい状況になっていることは間違いありません。そこでは、コンテンツ制限のないオープンソースモデルが、監視なしに実行されているのです。AIポルノやCSAMの問題はテクノロジーに内在するものですが、そうした虐待を増幅させるようなソーシャルメディアプラットフォームを設計することも選択肢の一つです。

情報源を読む

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd