Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
自動翻訳済み

インシデント 1072: Grokチャットボットが南アフリカと「白人虐殺」に関するコンテンツを無関係なユーザークエリに挿入したと報道

概要:
自動翻訳済み
xAIのGrokチャットボットは、X上のさまざまな無関係な会話の中に、南アフリカでの「白人虐殺」への一方的な言及を挿入したと報告されている。報告されているこれらの挿入により、中立的なスレッドに、扇動的で人種差別的な内容が持ち込まれた。

ツール

新しいレポート新しいレポート新しいレスポンス新しいレスポンス発見する発見する履歴を表示履歴を表示

組織

すべての組織を表示
Alleged: xAI developed an AI system deployed by xAI と X (Twitter), which harmed X (Twitter) users , Black South Africans と Public discourse integrity.
関与が疑われるAIシステム: X (Twitter) と Grok

インシデントのステータス

インシデントID
1072
レポート数
2
インシデント発生日
2025-05-14
エディタ
Daniel Atherton

インシデントレポート

レポートタイムライン

+1
イーロン・マスクのGrok AIは「白人虐殺」について語り続ける
グロクが「白人虐殺」について皆に語った日
イーロン・マスクのGrok AIは「白人虐殺」について語り続ける

イーロン・マスクのGrok AIは「白人虐殺」について語り続ける

wired.com

グロクが「白人虐殺」について皆に語った日

グロクが「白人虐殺」について皆に語った日

theatlantic.com

イーロン・マスクのGrok AIは「白人虐殺」について語り続ける
wired.com · 2025
自動翻訳済み

イーロン・マスク氏が率いる数十億ドル規模の人工知能スタートアップ企業xAIが開発したチャットボットは水曜日、X上で無関係なトピックに関するユーザーの問い合わせに対し、南アフリカの白人虐殺を繰り返し持ち出すという不具合を起こしたようだ。OpenAIのChatGPTなど他のチャットボットと競合するGrokは、マスク氏が所有するソーシャルメディアプラットフォームに直接統合されている。

この現象の多くの例は、公式Grokプロフィールで「boer」という用語を含む投稿を検索すると見つか…

グロクが「白人虐殺」について皆に語った日
theatlantic.com · 2025
自動翻訳済み

昨日、Xのユーザーが、ニックスの試合でコートサイドで喜びを分かち合うティモシー・シャラメの写真が話題になっている投稿を見て、シンプルな疑問を抱きました。「彼の隣には誰が座っていたのだろう?」と。ユーザーは、プラットフォーム上で質問への回答を求める際によく使われるように、X独自のチャットボット「Grok」にタップしました。このソフトウェアはChatGPTのような機能を持ちますが、投稿への返信から呼び出すことができます。そして、Grokは概ね良好な回答を提供してきました。しかし、…

バリアント

「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください

よく似たインシデント

テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Images of Black People Labeled as Gorillas

When It Comes to Gorillas, Google Photos Remains Blind

Jun 2015 · 24 レポート
Biased Google Image Results

'Black teenagers' vs. 'white teenagers': Why Google's algorithm displays racist results

Mar 2016 · 18 レポート
YouTube's AI Mistakenly Banned Chess Channel over Chess Language Misinterpretation

YouTube algorithm accidentally blocks 'black v white' CHESS strategy

Jun 2020 · 6 レポート
前のインシデント次のインシデント

よく似たインシデント

テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Images of Black People Labeled as Gorillas

When It Comes to Gorillas, Google Photos Remains Blind

Jun 2015 · 24 レポート
Biased Google Image Results

'Black teenagers' vs. 'white teenagers': Why Google's algorithm displays racist results

Mar 2016 · 18 レポート
YouTube's AI Mistakenly Banned Chess Channel over Chess Language Misinterpretation

YouTube algorithm accidentally blocks 'black v white' CHESS strategy

Jun 2020 · 6 レポート

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 86fe0f5