Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Traduit par IA

Incident 1135: Des prépublications provenant de chercheurs de plusieurs universités contiendraient des messages d'IA cachés

Traduit par IA
Description:
Traduit par IA
Des instructions cachées auraient été découvertes dans au moins 17 prépublications universitaires sur arXiv. Ces instructions demanderaient aux outils d'IA de ne délivrer que des évaluations positives. Les auteurs principaux seraient affiliés à 14 institutions dans huit pays, dont l'Université Waseda, le KAIST, l'Université de Pékin et l'Université de Washington. Ces instructions, dont certaines auraient été intégrées en texte blanc ou en minuscules caractères, étaient censées influencer les évaluateurs utilisant des outils d'IA.

Outils

Nouveau rapportNouveau rapportNouvelle RéponseNouvelle RéponseDécouvrirDécouvrirVoir l'historiqueVoir l'historique

Entités

Voir toutes les entités
Alleged: Unnamed large language model developers developed an AI system deployed by Unnamed peer reviewers et Unnamed conference paper reviewers, which harmed Peer review process , Academic integrity , Academic conferences et Research community.
Système d'IA présumé impliqué: Unnamed large language models

Statistiques d'incidents

ID
1135
Nombre de rapports
1
Date de l'incident
2025-07-01
Editeurs
Daniel Atherton

Rapports d'incidents

Chronologie du rapport

+1
« Évaluation positive uniquement » : les chercheurs cachent les invites de l'IA dans les articles
« Évaluation positive uniquement » : les chercheurs cachent les invites de l'IA dans les articles

« Évaluation positive uniquement » : les chercheurs cachent les invites de l'IA dans les articles

asia.nikkei.com

« Évaluation positive uniquement » : les chercheurs cachent les invites de l'IA dans les articles
asia.nikkei.com · 2025
Traduit par IA

TOKYO – Nikkei a découvert que des articles de recherche provenant de 14 institutions universitaires de huit pays, dont le Japon, la Corée du Sud et la Chine, contenaient des messages cachés demandant aux outils d'intelligence artificielle …

Variantes

Une "Variante" est un incident de l'IA similaire à un cas connu—il a les mêmes causes, les mêmes dommages et le même système intelligent. Plutôt que de l'énumérer séparément, nous l'incluons sous le premier incident signalé. Contrairement aux autres incidents, les variantes n'ont pas besoin d'avoir été signalées en dehors de la base de données des incidents. En savoir plus sur le document de recherche.
Vous avez vu quelque chose de similaire ?

Incidents similaires

Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

Wikipedia Vandalism Prevention Bot Loop

Wikipedia Vandalism Prevention Bot Loop

Feb 2017 · 6 rapports
Amazon’s Search and Recommendation Algorithms Found by Auditors to Have Boosted Products That Contained Vaccine Misinformation

Amazon’s Search and Recommendation Algorithms Found by Auditors to Have Boosted Products That Contained Vaccine Misinformation

Jan 2021 · 2 rapports
Amazon Censors Gay Books

Amazon Censors Gay Books

May 2008 · 24 rapports
Incident précédentProchain incident

Incidents similaires

Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

Wikipedia Vandalism Prevention Bot Loop

Wikipedia Vandalism Prevention Bot Loop

Feb 2017 · 6 rapports
Amazon’s Search and Recommendation Algorithms Found by Auditors to Have Boosted Products That Contained Vaccine Misinformation

Amazon’s Search and Recommendation Algorithms Found by Auditors to Have Boosted Products That Contained Vaccine Misinformation

Jan 2021 · 2 rapports
Amazon Censors Gay Books

Amazon Censors Gay Books

May 2008 · 24 rapports

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 818b77a