概要: arXivに掲載されている少なくとも17件の学術論文プレプリントにおいて、AIツールに肯定的な査読結果のみを投稿するよう指示する隠された指示が発見されたと報じられています。筆頭著者は、早稲田大学、KAIST、北京大学、ワシントン大学など、8カ国14機関に所属していると報じられています。隠された指示の中には、白い文字や小さなフォントで埋め込まれたものもあったと報じられており、AIツールに頼る査読者に影響を与えることを意図していたとされています。
Alleged: Unnamed large language model developers developed an AI system deployed by Unnamed peer reviewers と Unnamed conference paper reviewers, which harmed Peer review process , Academic integrity , Academic conferences と Research community.
関与が疑われるAIシステム: Unnamed large language models
インシデントのステータス
インシデントID
1135
レポート数
1
インシデント発生日
2025-07-01
エディタ
Daniel Atherton
インシデントレポート
レポートタイムライン
東京発 ― 日本、韓国、中国を含む8カ国14の学術機関の研究論文に、人工知能(AI)に良い評価を与えるよう指示する隠された指示が含まれていたことが、日経新聞の調べで分かった。
日経新聞は、学術研究プラットフォームarXivに掲載されている英語のプレプリント(正式な査読を受けていない論文)を調べた。
こうした指示は17本の論文で発見された。これらの論文の筆頭著者は、日本の早稲田大学、韓国のKAIST、中国の北京大学、シンガポール国立大学、米国のワシントン大学、コロンビア大学など…
バリアント
「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください
似たようなものを見つけましたか?
よく似たインシデント
Did our AI mess up? Flag the unrelated incidents
よく似たインシデント
Did our AI mess up? Flag the unrelated incidents