Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる

レポート 5145

関連インシデント

インシデント 10436 Report
Reddit Moderators Report Unauthorized AI Study Involving Fabricated Identities by Purported University of Zurich Researchers

Loading...
Reddit、フォーラムに秘密のAIボットを展開した「非倫理的な実験」を非難
washingtonpost.com · 2025

Redditは、チューリッヒ大学の研究者グループによる「不適切かつ極めて非倫理的な実験」について警鐘を鳴らしている。この実験では、人工知能が人間の意見にどのような影響を与えるかを研究するため、人気フォーラムにAIボットを秘密裏に導入していた。

changemyviewサブレディットのモデレーターは、この数ヶ月にわたって展開されていた「無許可の実験」について、先週末にグループの380万人のユーザーに警告を発出した。モデレーターらは、この研究における「開示手続きの一環」として研究者から通知を受けたと述べた。研究者らは、コメントの作成にAIが使用されたことを開示せずに、複数のアカウントを使用してサブレディットに投稿したと述べている。

反対意見をより深く理解するために「欠陥があるかもしれない意見を投稿する場所」として運営されているこのサブレディットは、開示されていないAI生成コンテンツやボットの使用を許可していない。「研究者らは研究前に私たちに連絡を取ってこなかった。もし連絡を取っていたとしても、私たちは断っていただろう」とモデレーターらは投稿の中で述べている。

Redditの最高法務責任者を名乗る管理者の投稿で、Redditのユーザー名tracerooを使用しているベン・リー氏は、この実験を「不適切で極めて非倫理的」であり、「道徳的にも法的にも大きく間違っている」と述べた。

「チューリッヒ大学とこの研究チームに対し、正式な法的要求を申し立てているところです」と、リー氏は月曜日のフォーラムへの投稿で述べた。「コミュニティを支援し、研究者たちがここでの不正行為の責任を負わされるよう、できる限りのことをしたいと思っています」。リー氏は、要求の具体的な内容についてコメントを求めたが、すぐには返答しなかった。

チューリッヒ大学の広報担当者、メラニー・ナイフェラー氏は水曜日にメールで声明を発表し、文学・社会科学部の倫理委員会が昨年、「価値観に基づく政治的言説における分極化を軽減するための人工知能の可能性を調査する」研究プロジェクトを審査したことを確認した。このプロジェクトに関連する4つの研究のうち1つは、「オンラインフォーラムやサブレディットにおける大規模言語モデル(LLM)駆動型会話エージェント(チャットボット)」の使用に関するものだったとナイフェラー氏は述べた。

委員会は研究者に対し、「参加者には可能な限り多くの情報を提供する必要がある」ことと「プラットフォームのルールを完全に遵守する必要がある」ことから、この研究は「非常に」困難になると助言していたとナイフェラー氏は述べた。しかし、委員会の評価は勧告であり、法的拘束力はない。「プロジェクトの実施と結果の発表は研究者自身の責任である」とナイフェラー氏は述べた。

「これらの出来事を踏まえ、人文社会科学部の倫理委員会は、今後、より厳格な審査プロセスを導入し、特に実験研究を行う前にプラットフォーム上のコミュニティと調整を行う予定です」とナイフェラー氏は述べた。「チューリッヒ大学の関係当局はこれらの出来事を認識しており、今後、詳細な調査を行い、関連する評価プロセスを批判的に検討する予定です。」

ナイフェラー氏は、研究者たちが実験結果を公表しないことを決めたと付け加えた。

土曜日に行われた研究結果を詳述した投稿の中で、サブレディットのモデレーターたちは大学に倫理上の苦情を申し立て、研究結果を公表しないよう要請したと述べた。公表すれば「研究者によるさらなる介入を劇的に促し、将来的に合意のない被験者実験に対するコミュニティの脆弱性を高めることになる」と主張した。

研究者たちは実験結果の草稿を彼らと共有しており、投稿にはリンクが貼られていたものの、アクセスは許可された人のみに制限されていたという。

サブレディットのモデレーターの一人、ローガン・マクレガー氏はワシントン・ポスト紙に対し、研究者たちの行動に不快感を覚えたと語った。マクレガー氏は、議論があまりにも有害で辛辣になりやすいため、他のほとんどのソーシャルメディアから離脱した後、約1年前にこのフォーラムに参加した。しかし、確立されたルールと精神を持つr/changemyviewは違った、と彼は語った。

「私はルール1は『人間であることを忘れないこと』だという理由で、非常に不本意ながらRedditに参加しました」と彼は述べた。「そして、何でも話せる、どんな意見でも認められ、礼儀正しさが求められるこの場所を見つけました。そこは、意見交換のための安全で人間的な場所でした。」

名前が公表されていない研究者たちは、AIボットを使って13の異なるアカウントを運用した。そのうち1つはレイプ被害者を名乗り、もう1つはBlack Lives Matterに反対する黒人男性を名乗るものだったと、モデレーターは発表記事で述べている。

フォーラムのモデレーターであるLLMresearchteamによって審査されたRedditアカウントを使用し、研究者たちはコミュニティからの懸念や批判に応え、「無知な設定が必要だった」ため、ユーザーに警告したり、知らない参加者から同意を得たりすることなく実験を実施しなければならなかったと投稿した。

研究者らは当初34のアカウントを立ち上げようとしたが、最初の2週間で21のアカウントがシャドウバンされたと述べた。つまり、これらのアカウントは引き続きサブレディットを閲覧できるものの、投稿はコミュニティの他のユーザーからは非表示になった。残りの13のアカウントは平均して1日に10~15件の投稿しかしていなかったと研究者らは述べ、サブレディット全体の1日平均7,000件の投稿を考慮すると、これは無視できる量だと説明した。

モデレーターによると、ボットは合計で約1,700件のコメントを投稿した。

「LLM説得に関するこれまでの研究は、高度に人工的な環境、多くの場合金銭的インセンティブを持つ参加者を対象とした環境でのみ行われてきた」と研究者らは述べている。 「これらの設定では、現実世界の相互作用の複雑さを捉えきれていません。現実世界の相互作用は、自発的かつ予測不可能な形で展開し、多くの文脈的要因が時間の経過とともに意見の変化に影響を与えるからです。同意に基づく実験は、説得の試みに気づいていないユーザー、つまり悪意のある人物がいる場合のユーザーの行動をシミュレートできないため、生態学的妥当性を欠いています。」

研究者たちは、研究によって生じた可能性のある混乱について謝罪しましたが、研究全体を通して「あらゆる決定」は「倫理的な科学的行動、ユーザーの安全、透明性」の原則に基づいて行われたと主張しました。彼らは、チューリッヒ大学の倫理委員会が彼らのアプローチを審査・承認しており、「事前の同意は現実的ではないことを認めている」と主張しました。

大学は声明を発表したものの、それ以上の質問には回答しませんでした。

オックスフォード大学の生命倫理学准教授、アンジェリキ・ケラシドゥ氏はワシントン・ポスト紙に対し、研究における欺瞞行為は、研究に高い社会的価値がある場合には正当化され得るものの、インフォームド・コンセントは「人格尊重の基盤となり、個人の自律性を支える」ため、倫理的な研究の礎とみなされるようになったと述べた。

r/changemyviewで行われた実験は、「研究の社会的価値(科学的価値だけでなく)について考えること、そして研究プロジェクトを計画する際に研究コミュニティと連携することの重要性を例示している」とケラシドゥ氏はメールで述べている。

マクレガー氏は、この実験の唯一の明るい点は、インターネット上に依然として存在する「貴重な、ごくわずかな市民的人間空間」をどのように守るかという、根深い問題に注目を集めたことだと述べている。

「研究者たちはAIの存在意義に関する課題について正しい」と彼は述べた。 「彼らのやり方は間違っていました。でも、善意から出たものだと思います。そして、個人的にこの出来事から得られるものの一つは…私たち全員がAIと格闘する中で、より良い前進の道です。AIは消え去ることはありません。止めることもできません。しかし、これらの空間を人間らしく保つために、私たちは何ができるでしょうか?」

情報源を読む

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd