Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる

インシデント 939: AI-Powered Chinese Surveillance Campaign 'Peer Review' Used for Real-Time Monitoring of Anti-State Speech on Western Social Media

概要: OpenAI reportedly uncovered evidence of a Chinese state-linked AI-powered surveillance campaign, dubbed "Peer Review," designed to monitor and report anti-state speech on Western social media in real time. The system, believed to be built on Meta’s open-source Llama model, was detected when a developer allegedly used OpenAI’s technology to debug its code. OpenAI also reportedly identified disinformation efforts targeting Chinese dissidents and spreading propaganda in Latin America.

ツール

新しいレポート新しいレポート新しいレスポンス新しいレスポンス発見する発見する履歴を表示履歴を表示

組織

すべての組織を表示
Alleged: Various open-source AI developers , Meta , Chinese state security researchers と OpenAI developed an AI system deployed by Chinese state-linked actors と Chinese Communist Party, which harmed Western social media communities , Social media users in Latin America , social media users , Opposition voices against the Chinese Communist Party , Chinese dissidents と Cai Xia.
関与が疑われるAIシステム: Peer Review , OpenAI models , LLaMA と ChatGPT

インシデントのステータス

インシデントID
939
レポート数
6
インシデント発生日
2025-02-21
エディタ
Daniel Atherton

インシデントレポート

レポートタイムライン

+3
OpenAI、AI搭載の中国監視ツールの証拠を発見
+2
OpenAIは中国のAIが中国を批判するソーシャルメディアの投稿を監視していると主張
OpenAI、AI搭載の中国監視ツールの証拠を発見

OpenAI、AI搭載の中国監視ツールの証拠を発見

nytimes.com

OpenAIは自社のツールを使って新たな中国の影響力キャンペーンを発見

OpenAIは自社のツールを使って新たな中国の影響力キャンペーンを発見

axios.com

OpenAI、ソーシャルメディア監視用のコード編集にChatGPTを使用する中国のアカウントを禁止

OpenAI、ソーシャルメディア監視用のコード編集にChatGPTを使用する中国のアカウントを禁止

engadget.com

OpenAIは中国のAIが中国を批判するソーシャルメディアの投稿を監視していると主張

OpenAIは中国のAIが中国を批判するソーシャルメディアの投稿を監視していると主張

mezha.media

OpenAI、監視や影響力行使キャンペーンにChatGPTを悪用するアカウントを禁止

OpenAI、監視や影響力行使キャンペーンにChatGPTを悪用するアカウントを禁止

thehackernews.com

OpenAI、AI搭載の中国製監視ツールの証拠を発見

OpenAI、AI搭載の中国製監視ツールの証拠を発見

startupnews.fyi

OpenAI、AI搭載の中国監視ツールの証拠を発見
nytimes.com · 2025
自動翻訳済み

OpenAIは金曜日、中国の安全保障活動が、西側諸国のソーシャルメディアサービスにおける反中国的な投稿に関するリアルタイムの報告を集めるために人工知能を利用した監視ツールを構築した証拠を発見したと発表した。

同社の研究者らは、ツールの開発に携わる誰かがOpenAIの技術を使って、その基盤となるコンピュータコードの一部をデバッグしたため、この新しいキャンペーン(彼らが「ピアレビュー」と呼んでいる)を特定したと述べた。

OpenAIの主任研究員ベン・ニモ氏は、同社がこの種のAIを…

OpenAIは自社のツールを使って新たな中国の影響力キャンペーンを発見
axios.com · 2025
自動翻訳済み

OpenAIは、スペイン語で反米の偽情報を広めることを目的としたキャンペーンを含む、中国の広範な影響力キャンペーンの一環として、同社のAIツールが2回使用されていることを発見し、阻止したと同社は述べた。

重要な理由:AIが偽情報を増幅させ、国家が支援するサイバー攻撃の作業を加速させる可能性は、恐ろしい理論から複雑な現実へと着実に移行している。

ニュースの推進力:OpenAIは金曜日に最新の脅威レポートを公開し、ChatGPTやその他のツールを悪用する取り組みの例をいくつか特定…

OpenAI、ソーシャルメディア監視用のコード編集にChatGPTを使用する中国のアカウントを禁止
engadget.com · 2025
自動翻訳済み

OpenAIは、AIソーシャルメディア監視ツールのコードをデバッグおよび編集するためにChatGPTを使用しようとした中国人ユーザーグループのアカウントを禁止したと、同社が金曜日に発表した。OpenAIが「ピアレビュー」と呼ぶこのキャンペーンでは、このグループがChatGPTに、X、Facebook、YouTube、Instagramなどのプラットフォームで反中国感情を監視するために設計されたとされるプログラムのセールストークを作成するよう促した。この作戦は、中国での人権侵害…

OpenAIは中国のAIが中国を批判するソーシャルメディアの投稿を監視していると主張
mezha.media · 2025
自動翻訳済み

OpenAIは、人工知能(AI)を使って西側ソーシャルメディア上の反中国コンテンツをリアルタイムで監視する中国政府の活動が暴露されたとニューヨークタイムズ紙が報じた。

研究者らがPeer Reviewと名付けたこのAIベースのシステムは、専門家らがこのスパイウェアの基盤となるコードをデバッグするためにOpenAIツールが使用されていることに気づいた後に発見された。

「これほど強力なAIベースの監視システムを見たのは初めてだ」とOpenAIの主任研究者ベン・ニモ氏は述べた。「脅…

OpenAI、監視や影響力行使キャンペーンにChatGPTを悪用するアカウントを禁止
thehackernews.com · 2025
自動翻訳済み

OpenAIは金曜日、同社のChatGPTツールを使用して人工知能(AI)を利用した監視ツールと疑われるツールを開発した一連のアカウントを禁止したことを明らかにした。

このソーシャルメディア監視ツールは中国発祥の可能性が高いと言われており、MetaのLlamaモデルの1つを搭載している。問題のアカウントは、AI企業のモデルを使用して詳細な説明を生成し、文書を分析し、西側諸国の反中国抗議活動に関するリアルタイムのデータとレポートを収集し、中国当局と洞察を共有できる装置に使用して…

OpenAI、AI搭載の中国製監視ツールの証拠を発見
startupnews.fyi · 2025
自動翻訳済み

OpenAIは金曜日、中国のセキュリティ作戦が、西側諸国のソーシャルメディアサービスにおける反中国の投稿に関するリアルタイムのレポートを収集するために人工知能を搭載した監視ツールを構築したという証拠を発見したと発表した。同社の研究者らは、ツールの開発に携わる人物がOpenAIの技術を使用して、ツールの基盤となるコンピューターコードの一部をデバッグしたため、この新しいキャンペーン(彼らが「ピアレビュー」と呼んでいる)を特定したと述べた。

OpenAI の主任研究員であるベン・ニ…

バリアント

「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください

よく似たインシデント

テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Fake LinkedIn Profiles Created Using GAN Photos

That smiling LinkedIn profile face might be a computer-generated fake

Feb 2022 · 4 レポート
Wikipedia Vandalism Prevention Bot Loop

Danger, danger! 10 alarming examples of AI gone wild

Feb 2017 · 6 レポート
Biased Sentiment Analysis

Google's sentiment analysis API is just as biased as humans

Oct 2017 · 7 レポート
前のインシデント次のインシデント

よく似たインシデント

テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Fake LinkedIn Profiles Created Using GAN Photos

That smiling LinkedIn profile face might be a computer-generated fake

Feb 2022 · 4 レポート
Wikipedia Vandalism Prevention Bot Loop

Danger, danger! 10 alarming examples of AI gone wild

Feb 2017 · 6 レポート
Biased Sentiment Analysis

Google's sentiment analysis API is just as biased as humans

Oct 2017 · 7 レポート

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 1420c8e