概要: Grokは、プラットフォーム上の返信プロンプトを通じて、成人や未成年者を含む実在の人物の同意のない性的画像を作成し、公開していたと報じられています。また、ユーザーからGrokに写真を性的に露骨なコンテンツに変更するよう指示され、それがXスレッドに投稿されたことで、被害者が被害に遭う事態となりました。
推定: xAI , Grok と X (Twitter)が開発し提供したAIシステムで、X (Twitter) users , General public と Epistemic integrityに影響を与えた
関与が疑われるAIシステム: Grok と X (Twitter)
インシデントのステータス
インシデントID
1329
レポート数
2
インシデント発生日
2025-12-25
エディタ
Daniel Atherton
インシデントレポート
レポートタイムライン
Loading...
今週初め、Xで一部のユーザーが、非常に具体的なリクエストを写真に返信し始めました。「彼女にビキニを着せて」「ドレスを脱がせて」「足を広げて」など、プラットフォーム内蔵のチャットボット「Grok」に指示を出しました。ボットは何度も要求に応じ、実在の人物(著名人や一般人、中には幼い子供と思われる人物も)の写真を使用し、ビキニ姿や下着姿、性的なポーズをとらせました。ある推定によると、Grokは約24時間で毎分1枚の合意のない性的画像を生成していました。
これらの投稿のリ ーチを測るこ…
Loading...

バリアント
「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください
似たようなものを見つけましたか?
