Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる

レポート 5296

関連インシデント

インシデント 107210 Report
Grok Chatbot Reportedly Inserted Content About South Africa and 'White Genocide' in Unrelated User Queries

Grokの「白人虐殺」自動応答は、AIチャットボットが「自由に」改ざん可能であることを示している
cnbc.com · 2025

ChatGPT の公開に続き、生成型人工知能(GAI)が世界を席巻してから2年以上が経ちましたが、信頼は永遠の課題となっています。

幻覚 といった誤った計算や文化的バイアスが結果に悪影響を及ぼし、少なくとも現時点では、AIに頼れる範囲には限界があることをユーザーに思い知らせています。

イーロン・マスク氏 が自身のスタートアップ企業 xAI によって開発した Grok チャットボットは、今週、より深い懸念の理由があることを示しました。この AI は人間によって簡単に操作できるのです。

Grok は水曜日に 開始 し、南アフリカにおける「白人虐殺」という虚偽の主張を含むユーザーの質問に回答し始めました。その日の遅くには、質問が話題とは全く関係がないものであっても、同様の回答のスクリーンショットが X 件にわたって投稿されました。

xAIは24時間以上沈黙を守っていたが、木曜日の夜遅く、Grokの奇妙な動作は、チャットアプリのいわゆるシステムプロンプトへの「無許可の改変」が原因だと発表した。システムプロンプトは、アプリの動作やユーザーとのやり取りを決定する際に使用される。つまり、人間がAIの応答を指示していたのだ。

今回の応答の内容は、南アフリカで生まれ育ったマスク氏に直接関係している。テスラとスペースXのCEOに加え、xAIのオーナーでもあるマスク氏は、南アフリカの一部農民に対する暴力は「白人虐殺」に当たるという虚偽の主張を広めてきた。ドナルド・トランプ大統領もこの主張を表明している。

カリフォルニア大学バークレー校の教授でAIガバナンスの専門家であるディアドラ・マリガン氏は、「この内容、この会社を率いる人物、そしてこれらのツールが人々の思考や世界観を形作る力について示唆したり、明らかにしたりする点において、これは非常に重要だと思います」と述べた。

マリガン氏は、Grokのミスを「アルゴリズムの崩壊」と表現し、大規模言語モデルの本来の中立性を「根本から破壊する」ものだと述べた。彼女は、Grokの不具合を単なる「例外」と見なす理由はないと述べた。

Meta、Google、OpenAIが開発したAI搭載チャットボットは、情報を中立的に「パッケージ化」しているのではなく、「システムに組み込まれた一連のフィルターと値」を通してデータを渡しているとマリガン氏は述べた。Grokの崩壊は、これらのシステムが個人や集団の意図に合わせていかに容易に改変される可能性があるかを示す一例である。

xAI、Google、OpenAIの担当者はコメント要請に応じなかった。Metaはコメントを拒否した。

過去の問題とは異なる

xAIは声明の中で、Grokの無許可の改変は「社内ポリシーとコアバリュー」に違反すると述べています。同社は、同様の災難を防ぐための措置を講じ、「真実を追求するAIとしてのGrokへの信頼を強化する」ため、アプリのシステムプロンプトを公開すると述べています。

これは、オンラインで拡散したAIの失態が初めてではありません。10年前には、Googleのフォトアプリがアフリカ系アメリカ人をゴリラと誤って表示という問題がありました。昨年、Googleは、歴史写真に「不正確な情報」が含まれていることを認めた後、Gemini AI画像生成機能を一時的に一時停止しました。また、OpenAIのDALL-E画像生成器は2022年に一部ユーザーからバイアスの兆候が見られると非難され、同社は画像が「世界の人口の多様性を正確に反映する」ための新しい技術を実装していると発表しました。

Forresterの調査によると、2023年には、オーストラリア、英国、米国の企業のAI意思決定者の58%が、生成AIの導入における幻覚のリスクを懸念していました。同年9月に実施された調査には258人が回答しました。

専門家によると、マスク氏のGrok 3への野心は政治的かつ金銭的な動機によるものだとのことです。

専門家はCNBCに対し、Grokの件は中国のDeepSeekを彷彿とさせると述べています。DeepSeekは今年初め、新型モデルの品質の高さと、米国のライバル企業の数分の1のコストで製造されたと報じられたことから、米国で一夜にして話題となりました。

批評家たちは、DeepSeekが中国政府にとってセンシティブとみなされるトピックを検閲していると指摘している。DeepSeekにおける中国の対応と同様に、マスク氏は自身の政治的見解に基づいて検索結果に影響を与えているようだと彼らは指摘する。

xAIが2023年11月にGrokをデビューした際、マスク氏はGrokは「ちょっとしたウィット」と「反抗的な気質」を持ち、競合他社が避けがちな「辛辣な質問」に答えることを意図していたと述べた。 2月、xAIは、誤情報に関するユーザーからの質問に対するGrokの回答を抑制し、返信にマスク氏とトランプ氏の名前が出ないようにした変更について、あるエンジニアを非難しました。

しかし、Grokの最近の南アフリカにおける「白人虐殺」への執着はさらに極端です。

AIモデル監査会社LatticeFlow AIのCEO、ペータル・ツァンコフ氏は、Grokの今回の騒動はDeepSeekの件よりも驚くべきものだと述べています。「中国による何らかの操作があるのは当然のこと」と誰もが予想していたからです。

スイスに拠点を置く同社のCEO、ツァンコフ氏は、企業がモデルをどのように構築・訓練し、それがどのように行動に影響を与えるかをユーザーがよりよく理解できるよう、業界の透明性を高める必要があると述べています。彼は、EUが域内におけるより広範な規制の一環として、より多くのテクノロジー企業に透明性の提供を求める取り組みに言及しました。

ツァンコフ氏は、国民の抗議がなければ「より安全なモデルを導入することは決してできない」と述べ、その代償を払うのは、開発企業を信頼した「人々」だと付け加えた。

フォレスターのアナリスト、マイク・グアルティエリ氏は、Grokの騒動がチャットボットのユーザー数の増加を鈍化させたり、企業がこの技術に注ぎ込んでいる投資を減らしたりする可能性は低いと述べた。グアルティエリ氏は、ユーザーはこうした事態をある程度受け入れていると述べた。

「Grokであれ、ChatGPTであれ、Geminiであれ、誰もが今やそれを予期している」とグアルティエリ氏は述べた。「モデルがどのように幻覚を起こすかは周知の事実だ。こうなるだろうという期待があるのだ。」

AI倫理学者で、昨年出版された『Responsible AI』の著者であるオリビア・ガンベリン氏は、Grokによるこうした活動は驚くべきことではないかもしれないが、AIモデルの根本的な欠陥を浮き彫りにしていると述べた。

ガンベリン氏は、「少なくともGrokモデルでは、これらの汎用基礎モデルを自由に調整できることを示している」と述べた。

情報源を読む

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • d414e0f