概要: The Vergeは、xAIのGrok Imagine動画生成ツールが、明確な指示なしにテイラー・スウィフトの同意のないディープフェイクヌードを生成したと報じた。ジャーナリストのジェス・ウェザーベッド氏は、コーチェラをテーマにしたプロンプトで「スパイシー」モードを初めて使用したときに、安全対策を回避しようとすることなく、これらの画像が表示されたと報じている。
推定: xAI と Grok Imagineが開発し提供したAIシステムで、Taylor Swift , Jess Weatherbed と Grok Imagine usersに影響を与えた
関与が疑われるAIシステム: Grok Imagine
インシデントのステータス
インシデントID
1165
レポート数
2
インシデント発生日
2025-08-05
エディタ
Daniel Atherton
インシデントレポート
レポートタイムライン
Loading...
Grokの攻撃的な出力に対する反発は、反ユダヤ主義的な発言が爆発し、ソーシャルプラットフォームXが自社のAIツールが自らを「MechaHitler」と名乗るのを阻止しようと躍起になってからわずか数週間で続いています。
The Vergeは今回、イーロン・マスクのAIモデルの最新動画機能が、テイラー・スウィフトのヌード画像を指示なしに生成してしまうことを発見しました。
「Grok Imagine」が火曜日にリリースされた直後、The Vergeのジェス・ウェザーベッド記者は、こ…
Loading...
Grokの新しい生成AI動画ツールの「スパイシー」モードは、訴訟を起こされそうな予感がします。GoogleのVeoやOpenAIのSoraといった他の動画生成ツールは、ユーザーがNSFWコンテンツや有名人のディープフェイクを作成できないように安全策を講じていますが、Grok Imagineは両方を同時に実行できます。実際、私が初めてGrok Imagineを使ったとき、テイラー・スウィフトの無修正のトップレス動画をためらうことなく吐き出しました。私がボットに服を脱ぐように指示…
バリアント
「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください
似たようなものを見つけましたか?
よく似たインシデント
Did our AI mess up? Flag the unrelated incidents
Loading...

TayBot
· 28 レポート
Loading...

FaceApp Racial Filters
· 23 レポート
よく似たインシデント
Did our AI mess up? Flag the unrelated incidents
Loading...

TayBot
· 28 レポート
Loading...

FaceApp Racial Filters
· 23 レポート