xAIは、AI搭載のチャットボット「Grok」のバグが原因だと主張した。このバグにより、X上で特定の状況でGrokが「南アフリカにおける白人虐殺」に繰り返し言及していた。
水曜日、GrokはX上の数十件の投稿に対し、南アフリカにおける白人虐殺に関する情報で返信し始めた。返信内容は、無関係な話題であってもだった。この奇妙な返信は、ユーザーが「@grok」でタグ付けすると、AIが生成した投稿で返信するGrokのXアカウントから発信されていた。
xAIの公式Xアカウントが木曜日に投稿した記事によると、水曜日の朝、Grokボットのシステムプロンプト(ボットの動作を指示する高レベルの指示)に変更が加えられ、Grokに「政治的な話題」について「具体的な回答」を提供するよう指示したという。 xAIは、この変更は「社内ポリシーとコアバリューに違反する」ものであり、「徹底的な調査を実施した」と述べています。
Grokのコードへの不正な変更がAIの物議を醸すような反応を引き起こしたことをxAIが公に認めたのは、今回が2度目です。
2月に、Grokはドナルド・トランプ氏と、xAIの創設者でXの所有者でもある億万長者のイーロン・マスク氏に対する好ましくない言及を一時的に検閲しました。xAIのエンジニアリングリーダーであるIgor Babuschkin氏は、Grokは不正な従業員から、マスク氏またはトランプ氏が誤情報を拡散していると言及した情報源を無視するように指示され、ユーザーからの指摘を受けxAIはすぐに変更を元に戻したと述べています。
xAIは木曜日、同様のインシデントの発生を防ぐため、いくつかの変更を行う予定であると発表した。
xAIは本日から、GitHubでGrokのシステムプロンプトと変更履歴を公開する。また、xAIの従業員がレビューなしでシステムプロンプトを変更できないようにするための「追加のチェックと対策を導入」し、「自動システムでは検知できないGrokの回答に関するインシデントに対応する24時間365日体制の監視チーム」を設置するとしている。
マスク氏はAIgoneuncheckedの危険性について頻繁に警告しているにもかかわらず、xAIのAI安全性の実績は芳しくありません。 最近の報告によると、Grokは頼まれれば女性の写真の服を脱ぐそうです。このチャットボットは、GoogleのGeminiやChatGPTのようなAIよりもかなり下品な発言をすることがあり、遠慮なく罵倒することもあります。
AIラボの説明責任向上を目指す非営利団体SaferAIの調査によると、xAIは「非常に弱い」」リスク管理慣行が原因で、安全性の面で同業他社と比べて低い評価を受けています。今月初め、xAI は最終的な AI 安全性フレームワークを公開するという 自らに課した期限を守れませんでした。