
イーロン・マスク氏のチャットボット「Grok」は金曜日、安全対策の不備によりソーシャルメディアプラットフォーム「X」上で「未成年者が露出度の高い服装をしている画像」を生成したと投稿した。マスク氏の企業xAIの製品であるこのチャットボットは、ユーザーの指示に応じて、ここ1週間、性的な画像を次々と生成していた。
X上でユーザーが共有したスクリーンショットには、Grokの公開メディアタブがそのような画像で埋め尽くされていることが示された。xAIは、今後のインシデント防止に向け、システムの改善に取り組んでいると述べた。
「ユーザーがAIによる性的表現を要求し、それを受け取るという散発的なケースがあります」と、GrokはXのユーザーへの返答として投稿で述べています。「xAIには安全対策が施されていますが、そのようなリクエストを完全にブロックするための改善が進行中です。」
「ご指摘のとおり、安全対策に欠陥があることが判明しており、緊急に修正しています。CSAMは違法であり、禁止されています」と、xAIはXの@Grokアカウントに投稿し、児童性的虐待コンテンツについて言及しました。
ここ数日、Xの多くのユーザーがGrokに対し、性的表現を意図しないAI改変画像を生成するよう要求しており、場合によっては本人の同意なしに衣服を脱がせているケースもあります。マスク氏は木曜日、AIがビキニ姿で撮影した自身の写真に泣き笑いの絵文字をキャプションとして付け、このトレンドに便乗してリポストした。
チャットボットGrokの投稿によると、Grokが生成する性的画像には安全対策が不十分で、未成年者(主に女性)が薄着で投稿されている様子が見られた。木曜日にXのユーザーへの返信で、Grokは高度なフィルターと監視によってほとんどのケースを防げるとしながらも、「100%完璧なシステムは存在しない」と述べ、xAIは改善を優先し、ユーザーから共 有された詳細情報を確認していると付け加えた。
メールでコメントを求めたところ、xAIは「旧来のメディアの嘘」という返信を出した。
児童性的虐待コンテンツの生成にAIが利用されている問題は、人工知能業界における長年の課題である。 2023年のスタンフォード大学の研究では、多くの一般的なAI画像生成ツールの学習に使用されたデータセットに、1,000枚を超えるCSAM画像が含まれていたことが判明しました(https://www.axios.com/2023/12/20/ai-training-data-child-abuse-images-stanford)。専門家によると、児童虐待画像でAIを学習させることで、モデルは搾取されている児童の新たな画像を生成できるようになる可能性があるとのことです。
Grokには、安全対策を怠り、誤情報を投稿してきた経歴があります。昨年5月、Grokは南アフリカにおける「白人虐殺」という極右の陰謀について、その概念とは無関係の投稿で投稿し始めました。 xAIは7月にも、Grokがレイプ妄想や反ユダヤ主義的なコンテンツを投稿し始めたことに対し謝罪した。これには自らを「メカヒトラー」と名乗るやナチスの思想を称賛する行為も含まれていた。しかし、同社は事件発生から1週間後に米国防総省と約2億ドルの契約を獲得した。