Description: OpenAI reportedly uncovered evidence of a Chinese state-linked AI-powered surveillance campaign, dubbed "Peer Review," designed to monitor and report anti-state speech on Western social media in real time. The system, believed to be built on Meta’s open-source Llama model, was detected when a developer allegedly used OpenAI’s technology to debug its code. OpenAI also reportedly identified disinformation efforts targeting Chinese dissidents and spreading propaganda in Latin America.
Entités
Voir toutes les entitésAlleged: Various open-source AI developers , Meta et Chinese state security researchers developed an AI system deployed by Chinese state-linked actors et Chinese Communist Party, which harmed Western social media communities , Opposition voices against the Chinese Communist Party , Chinese dissidents , Social media users in Latin America et social media users.
Statistiques d'incidents
ID
939
Nombre de rapports
1
Date de l'incident
2025-02-21
Editeurs
Daniel Atherton
Rapports d'incidents
Chronologie du rapport
nytimes.com · 2025
- Afficher le rapport d'origine à sa source
- Voir le rapport sur l'Archive d'Internet
OpenAI a déclaré vendredi avoir découvert des preuves selon lesquelles une opération de sécurité chinoise avait mis au point un outil de surveillance alimenté par l'intelligence artificielle pour recueillir des rapports en temps réel sur le…
Variantes
Une "Variante" est un incident qui partage les mêmes facteurs de causalité, produit des dommages similaires et implique les mêmes systèmes intelligents qu'un incident d'IA connu. Plutôt que d'indexer les variantes comme des incidents entièrement distincts, nous listons les variations d'incidents sous le premier incident similaire soumis à la base de données. Contrairement aux autres types de soumission à la base de données des incidents, les variantes ne sont pas tenues d'avoir des rapports en preuve externes à la base de données des incidents. En savoir plus sur le document de recherche.
Incidents similaires
Did our AI mess up? Flag the unrelated incidents
Incidents similaires
Did our AI mess up? Flag the unrelated incidents