インシデント 1392: Ars Technicaは、AI生成とされるテキストがMatplotlibメンテナーからの直接引用として提示されたため、記事を撤回した。
インシデントのステータス
インシデントレポート
レポートタイムライン
コンデ・ナスト傘下のテクノロジー系メディア「Ars Technica」は、ウェブサイトに掲載された編集者注によると、AIによって生成された捏造された引用を含む記事を撤回した。
「金曜日の午後、Ars TechnicaはAIツールによって生成された捏造された引用を含む記事を掲載しましたが、その引用元は実際には発言していない人物であるとされていました。これは当社の基準に著しく違反しています。直接引用は常に、情報源が実際に述べた内容を反映したものでなければなりません」と、Ars T…
金曜日の午後、Ars Technicaは記事を公開しました。この記事には、AIツールによって生成された捏造された引用が含まれており、引用元は実際には発言していません。これは、私たちの基準に著しく違反しています。直接引用は常に、情報源が実際に述べたことを反映したものでなければなりません。
Arsでこのような事態が発生したことは、特に痛ましいことです。私たちは長年にわたり、AIツールへの過度の依存のリスクについて取り上げており、私たちの明文化されたポリシーにもその懸念が反映されて…

コンデナスト傘下のArs Technicaは、AIが捏造した引用文を含む記事の掲載と撤回に関与したとして物議を醸したことを受け、AI担当上級記者のベンジ・エドワーズ氏を解雇したと、Futurismが確認した。
今月初め、Ars Technicaは、実在の人物の発言として偽の引用文が含まれていたことが判明したため、当該記事を撤回した。この記事は、AIエージェントがスコット・シャンボーという人間のエンジニアについて中傷記事を公開したと思われる事件をまとめたもので、当初は2月13日…
所属するメディア企業が記事作成における人工知能(AI)ツールの活用を奨励、あるいは義務付けているにもかかわらず、そのAIツールが(本来的に記者の存在意義を損なうだけでなく)情報の捏造を防げるかどうかも定かでないとしたら、記者は一体どうすべきなのでしょうか?言い換えれば、AIが作成したコンテンツに欠陥があったり、誤りがあったり、でたらめな内容が含ま れていたりした場合、誰が責任を負うべきなのでしょうか?経営陣が責任を取るのでしょうか?それとも、利用を強いられたAIツールに裏切られ…
