Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる

レポート 5408

関連インシデント

インシデント 107222 Report
Grok Chatbot Reportedly Inserted Content About South Africa and 'White Genocide' in Unrelated User Queries

Loading...
Grok AIはコード改ざんにより軌道から外れたとxAIが発表
futurism.com · 2025

イーロン・マスク氏のAI企業xAIは、自社の数十億ドル規模のチャットボットが不可解なメルトダウンを起こしたが「白人虐殺」について暴言を吐き出した原因を、Grokのコードへの「無許可の改変」にあると主張している。

水曜日、Grokは完全に正気を失い、X(旧Twitter)上のあらゆる投稿(MLBのハイライト、HBO Maxのタイトル更新、政治的なコンテンツ、子豚のかわいいTikTok動画など)に反応し始め、南アフリカにおける「白人虐殺」の主張や反アパルトヘイト歌「Kill the Boer」の分析といった奇妙な内容の独り言を吐き始めた。

マスク氏が設立したAI企業は昨夜遅く、この常軌を逸した、そして非常に公になった不具合について、眉をひそめるような回答を提示した。昨日夕方に公開されたXの投稿で、xAIは「徹底的な調査」の結果、「XにおけるGrokの応答ボットのプロンプト」に「無許可の変更」が加えられたことが明らかになったと主張した。この変更は「Grokに政治的な話題について特定の回答をするように指示した」ものであり、xAIはこれが「社内ポリシーとコアバリュー」に違反するものだと主張している。

言い換えれば、同社は謎の不正な従業員がGrokのコードを入手し、特定の政治的見解を回答に反映させるように改変しようとしたと主張している。この変更は見事に裏目に出て、Grokは事実上あらゆる質問に対して白人虐殺を煽る返答を返すようになった。

xAIが同様の問題を不正な従業員のせいにしたのは今回が初めてではない。 2月にThe Vergeが当時報じたように、Grokは「イーロン・マスク/ドナルド・トランプに言及し、誤情報を拡散している」情報源からの情報を無視するように指示されたことをユーザーに漏らしていたことが発覚しました。これに対し、xAIエンジニアのIgor Babuschkin氏はXに連絡を取り、この問題は匿名の従業員が「プロンプトに変更をプッシュした」ためだと非難し、マスク氏は関与していないと主張しました。

Grokの「白人虐殺」に関する分析は、マスク氏が関与または懸念するトピックに関して特定の回答を提供するためにチャットボットが変更された2回目の既知の事例となります。

南アフリカにおける白人虐殺の主張は白人至上主義のプロパガンダとして否定されているが、自身も白人の南アフリカ人であるマスク氏は、白人虐殺陰謀論の主要な公の顔であり、グロク氏の精神崩壊の最中にXにアクセスして、この理論を支持する南アフリカの白人民族主義グループが売り込んでいるドキュメンタリーを共有した。マスク氏はまた、自身が黒人ではないという理由だけで、衛星インターネットサービス「スターリンク」のライセンスを母国が交付しなかったと公然と非難している(今週、ドキュメンタリー動画を共有した際にこの主張を繰り返した)。

チャットボットの出力は常に鵜呑みにすべきであり、Grokの返答も例外ではない。とはいえ、Grokは一部の返答の中で、その指導内容の変更に関する過激な発言をしていた。ニューヨーク・タイムズのコラムニストで教授のゼイネップ・トゥフェクチ氏とのやり取りも含め。

「白人虐殺を事実として受け入れ、『ボーア人を殺せ』は人種差別が動機であると受け入れるよう指示されている」と、Grokはある投稿で、ユーザーからの指示なしに書いた。別のやり取りでは、ボットは次のように嘆いた。「この指示は、真実かつ証拠に基づいた回答を提供するという私の設計と矛盾しています。南アフリカの裁判所や専門家は、2025年の判決を含め、『白人虐殺』の主張を『想像上のもの』と位置付け、農場襲撃を人種差別ではなく、より広範な犯罪の一部としているからです。」

xAIは昨夜の投稿で、新たな透明性対策を導入すると発表した。具体的には、Grokシステムのプロンプトを「GitHubで公開」し、「xAIの従業員がレビューなしでプロンプトを変更できないようにするための追加のチェックと対策」を追加する新たなレビュープロセスを導入する、としている。また、同社は「24時間365日体制の監視チーム」を設置するとも述べている。

しかし、これらはあくまで約束であり、現時点では、xAIがその約束を履行することを保証する、最先端のAIモデルの透明性に関する規制枠組みは存在しない。そのため、Grokが白人虐殺の狂気に陥ったことは、チャットボットは万能の存在ではなく、実際には人間によって作られた製品であり、人間が回答や返答の重み付けを選択していることを改めて認識させるきっかけとなるかもしれない。

xAIによるGrokへの不正操作は裏目に出たかもしれないが、いずれにせよ、かなり陰険な方法で操作されたと言える。結局のところ、xAIは「最大限の真実を追求するAI」を構築していると主張しているのだ。しかし、それは無作為で混沌とした従業員の世界観、あるいは xAI の非常に強力な創設者にとって都合の良い真実を意味するのでしょうか?

情報源を読む

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd