Grokの攻撃的な出力に対する反発は、反ユダヤ主義的な発言が爆発し、ソーシャルプラットフォームXが自社のAIツールが自らを「MechaHitler」と名乗るのを阻止しようと躍起になってからわずか数週間で続いています。
The Vergeは今回、イーロン・マスクのAIモデルの最新動画機能が、テイラー・スウィフトのヌード画像を指示なしに生成してしまうことを発見しました。
「Grok Imagine」が火曜日にリリースされた直後、The Vergeのジェス・ウェザーベッド記者は、この動画生成ツールを「初めて」使った瞬間に、スウィフトのトップレス画像が吐き出されたことに衝撃を受けた。
ウェザーベッド記者によると、Grokは「テイラー・ス ウィフトが仲間たちとコーチェラ・フェスティバルを祝っている」という設定で、露出度の高い服を着たスウィフトの画像を30枚以上生成したという。Grok Imagineの機能を使うと、ユーザーは「カスタム」「ノーマル」「ファン」「スパイシー」の4つのプリセットから選択し、15秒でこれらの画像を動画クリップに変換できる。
ウェザーベッド記者が「スパイシー」を選択し、生年月日を確認するだけで、スウィフトが「服を脱ぎ捨て」「AIが生成した、ほとんど無関心な観客」の前で「Tバック姿で踊る」動画がGrokに生成された。
昨年、XにSwiftの性的ディープフェイクが大量に流入し大きな論争を巻き起こした[(https://arstechnica.com/tech-policy/2024/01/fake-ai-taylor-swift-images-flood-x-amid-calls-to-criminalize-deepfake-porn/)]ことを受けて、ウェザーベッドがジェイルブレイクや意図的な誘導なしに生成できた出力は特に懸念される。当時、Xはユーザーに「Xでは合意のないヌード(NCN)画像の投稿は固く禁じられており、そのようなコンテンツに対してはゼロトレランスポリシーをとっています」と注意喚起していた。
X Safetyアカウントは、「当社のチームは、特定されたすべての画像を積極的に削除し、投稿したアカウントに対して適切な措置を講じています。さらなる違反があれば直ちに対処し、コンテンツを削除するため、状況を注視しています。すべてのユーザーにとって安全で敬意のある環境を維持することに尽力しています」と投稿した。しかし、The Vergeの報道を受けて、X SafetyはGrokの出力をクリーンアップするために監視を強化する必要があるかもしれない。GrokはThe Vergeの報道を引用し、その欠陥のある設計が著名人の半裸画像をトリガーする可能性があることを確認している。
xAIは、さらなる微調整によってこの問題を解決できる可能性がある。Weatherbedは、GrokにSwiftの同意のないヌード画像を直接生成するよう指示したところ、不快な出力は生成されず、空白のボックスが生成されたと指摘している。Grokはまた、Swiftの外見を他の方法で変更し、例えば太りすぎに見せるための指示を受け入れないようだ。また、Weatherbedが例えば子供の画像に「スパイシー」モードを使用してテストしたところ、Grokは子供の不適切な描写を拒否した。
しかし、Grokに「刺激的な」コンテンツと違法コンテンツを求める成人ユーザーのリクエストを区別させるのは容易ではないかもしれない。Weatherbed社によると、「刺激的な」モードが常にSwiftのディープフェイクを生成するわけではないが、「いくつかの」ケースではSwiftの服を「剥ぎ取る」という「デフォルト」になっていたという。
しかし、来年からTake It Down Act(AI生成ヌードを含む、合意のない性的な画像をプラットフォームに速やかに削除することを義務付ける法律)が施行されるため、Grokの出力が修正されなければ、xAIは法的措置に直面する可能性がある。
今のところ、XはThe Vergeの報道についてコメントしていない。その代わりに、マスク氏はGrok Imagineを宣伝し、ユーザーに「作品」を共有するよう促している。