Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる

レポート 5099

関連インシデント

インシデント 10436 Report
Reddit Moderators Report Unauthorized AI Study Involving Fabricated Identities by Purported University of Zurich Researchers

Redditの秘密AI実験が倫理違反で告発される
theweek.com · 2025

Redditは4月28日、研究者グループが最も人気のあるフォーラムの一つで人工知能チャットボットを用いた秘密の実験を行ったというニュースに反応を示しました。この実験に関わった人々の行動は、人間を対象とする研究において欺瞞が正当化されることがあるのかどうかという疑問を提起しています。

AI侵入

チューリッヒ大学の匿名の研究者チームが、r/changemyview(CMV)サブレディットにおいて、Redditユーザーを対象に、数か月にわたる無許可の実験を実施しました。大規模言語モデル(LLM)を搭載した数十台のAIボットを配備し、物議を醸すトピックに関する議論に参加させました。このサブレディットは、人々がそれぞれの視点を共有することを奨励し、異なる視点を持つ人々の間で会話を活発化させています。

研究チームは、AIボットが運営する12以上のアカウントを利用し、フォーラムで1,700件以上のコメントを生成した。404 Mediaによると、ボットの中には「レイプ被害者、トラウマ患者と働いている、あるいはブラック・ライブズ・マター運動に反対する黒人」であると主張するものもあった。研究者らは別のAIデータスクレーパーを用いて人々の投稿履歴を分析し、「年齢、人種、性別、居住地、政治的信条」など、ボットの回答の有効性を高める個人情報を特定した。

実験対象となったRedditユーザーは、実験について知らされておらず、同意も得ていなかった。研究者らはまた、フォーラムのルールでAIが生成した投稿の開示が義務付けられているにもかかわらず、サブレディットのモデレーターに通知しなかった。3月に、モデレーターは研究者らからこのトピックを開示するメッセージを受け取った。研究チームは自らの研究と「このトピックの社会的重要性」を擁護し、「たとえルールに従わなくても、この種の研究を行うことは極めて重要だ」と主張した。この暴露を受けて、Redditのモデレーターたちはチューリッヒ大学に倫理上の苦情を申し立て、「研究の公表を控え、研究者らに懲戒処分を下し、公式に謝罪すること」を求めたとMashableは報じている。モデレーターとRedditユーザーは、「インフォームド・コンセントの欠如――あらゆるヒト被験者研究の基本原則――に深く失望している」と表明した。

Redditは、同社の最高弁護士が「不適切かつ極めて非倫理的な実験」と述べたこの実験に対し、「正式な法的要求」を行う予定だ。チューリッヒ大学の研究チームの行為は「道徳的にも法的にも重大な誤り」だと、Redditの最高法務責任者ベン・リー氏はフォーラムへの投稿で述べた。

倫理的ジレンマに学者たちが反応

この実験は他の学者からも批判を受けており、彼らも研究者たちの行動について倫理的懸念を表明している。この実験は「私がこれまで目にした中で最悪の研究倫理違反の一つだ」と、コロラド大学の情報科学者ケイシー・フィスラー氏はBlueskyで述べた。「同意のない欺瞞」を用いてオンラインコミュニティ内の人々を操作する行為は、リスクの低い行為ではなく、Redditでその後に続いた議論からも明らかなように、「害を及ぼした」という。

コーネル大学市民技術研究所の研究ディレクター、サラ・ギルバート氏は、この実験はCMVフォーラム自体の完全性を損なうものだと述べた。 CMVサブレディットは「人々が議論に参加し、新しいことを学び、これまでの思い込みに疑問を投げかけ、ひょっとすると考えを変えるきっかけとなる重要な公共空間」だと彼女はBlueskyで述べた。「人々はボットと関わっていないと信頼できるだろうか?」そして、もし信頼できなければ、「コミュニティはその使命を果たせるだろうか?」

「テクノロジー企業が人々の自律性を尊重していないとして多くの批判を浴びている時代に、研究者がより高い基準を自らに課すことは特に重要だ」と、オックスフォード大学の倫理学教授カリッサ・ベリス氏はNew Scientistに語った。「そして今回のケースでは、研究者たちはそれを怠った」とベリス氏は付け加えた。「この研究は、同意のない被験者に対する操作と欺瞞に基づいている」とベリス氏は付け加えた。「それは不当だったように思える」。

「研究において欺瞞は許容される場合もあるが、今回のケースが合理的だったかどうかは疑問だ」と、Directory of Open Access Journalsのマット・ホジキンソン氏はNew Scientistに語った。研究者が「被験者が同意したと主張するために法学修士課程に嘘をつく必要があった」というのは皮肉なことだと彼は言った。「チャットボットは大学よりも倫理観が高いのだろうか?」

情報源を読む

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • a9df9cf