Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる

レポート 5112

関連インシデント

インシデント 10436 Report
Reddit Moderators Report Unauthorized AI Study Involving Fabricated Identities by Purported University of Zurich Researchers

Loading...
公益のための倫理的かつ透明性のある研究実験の必要性
independenttechresearch.org · 2025

4月26日、他者の視点を理解することに特化したRedditコミュニティ「r/ChangeMyView」のモデレーターは、チューリッヒ大学の研究者らがコミュニティに対し、大規模なAI実験(無許可)を実施していたことを明らかにしました。研究者らは、AIボットを用いて密かに人間になりすまし、説得実験を行っていました。

重要なのは、この実験がRedditコミュニティに通知や同意を得ることなく実施され、ボットはAIとして分類されていなかったことです。Redditユーザーは、意見形成を目的とした、時に欺瞞的なAI生成コンテンツに、知らず知らずのうちにさらされていました。これは、倫理面および透明性に関する重大な懸念を引き起こしました。

研究者らが予備的な結果をコミュニティに共有した際、r/ChangeMyViewのモデレーターは懸念を抱き、研究者らの倫理委員会に連絡を取りました。このプロジェクトが機関の倫理基準を満たしていると伝えられたモデレーターは、衝撃を受け憤慨するコミュニティに対し、研究内容を開示しました。Redditは関連アカウントを禁止し、声明を発表し、この活動を非難しました。

この件は、技術研究および倫理コミュニティから厳しい批判を浴びています。これは、公共の利益を追求する意図は、参加者や一般の人々に対する研究者の倫理的責任を無視することを正当化する、という一部の研究者の誤った考えを浮き彫りにしています。

デジタル実験倫理に関する行動喚起

この実験が非倫理的であったことは疑いようがありません。研究者たちは、AIによって操作された可能性のある人々、AIが偽装した社会的弱者集団(彼らを不当に表現したため)、r/ChangeMyViewコミュニティ(市民による議論のための公開フォーラムとしての役割を阻害したため)、そして広く研究コミュニティ(科学に対する国民の信頼を損なったため)に対して、正しい対応を怠りました。

倫理違反はしばしば公益研究を制限する口実として利用されるため、研究者は倫理的な慣行を擁護する必要があります。Facebookの感情伝染研究やケンブリッジ・アナリティカの研究といった過去のスキャンダルは、実験による操作に対する懸念を生み出しました。これに対し、企業は、非倫理的な研究への懸念や、公共の利益を目的とした研究の制限や科学者への脅迫へのユーザーのプライバシー保護の必要性を理由に挙げていますが、実際にはユーザー自身を対象に実験を行っています。私たちは、科学者よりもさらに監視の少ない業界関係者によって、現在さらに多くの非倫理的で破壊的な生成AI実験が行われている可能性が高いと考えています。

Redditは、ユーザーが数百万ものトピックについて深い議論を行う公共フォーラムとして、長年にわたり公共利益研究の重要な情報源となってきました。また、Redditコミュニティは長年にわたり、科学者と提携し、相互に有益なコラボレーションを通じて私たちの世界への理解を深めてきました。Redditの多様で活気のあるコミュニティ(物議を醸すコミュニティも含む)を守るためには、研究者が人間性を意識する、自らの研究が個人、グループ、そしてコミュニティにどのような害を及ぼす可能性があるかを予測することが不可欠です。

連合メンバーとして、私たちは以下の行動を求めます。

  1. 生成AI研究がまだ比較的新しい時代に、倫理審査委員会、ジャーナル編集委員会、そして査読者には、倫理を遵守するために特に注意を払うよう求めます。新しい技術が、永続的な倫理原則に優先するわけではありません。ご質問やご不明な点がございましたら、以下にリソースのリストをご用意しました。また、テクノロジーと研究倫理の最前線で活躍する私たちにもぜひご連絡ください。一人で取り組む必要はありません。
  2. 規制当局とテクノロジー業界には、一般市民を対象としたデジタル実験の透明性を支持するよう求めます。実験が科学者、企業、あるいは大規模な言語モデルを持つ無作為の人物によるものであろうと、人々は私たちの生活がどのように、いつ体系的に影響を受けたのかを知る権利があります。 ミネソタ州のソーシャルメディア操作禁止法のような法律の透明性規定は、有益な科学を支援しつつ、より一般的には、非倫理的な研究から公衆を守るのに役立つ可能性があります。

CITRについて

独立技術研究連合(CITR)は、技術研究が公共の利益に資することを確実にするために活動するグローバルネットワークです。連合の使命は、技術が社会に与える影響を倫理的に研究する権利を推進、擁護、そして維持することです。

連合とその活動について詳しくは、設立文書とマニフェストをご覧ください。

Redditにおける倫理的研究慣行に関する連合メンバーからのリソース:

  • 背景:
  • 科学者がRedditを最大限に活用する方法

  • 人間を忘れない:Reddit研究における倫理的考慮事項の体系的レビュー

  • ソーシャルメディアデータの再利用に対するクロスプラットフォームユーザーの期待

  • [プラットフォームデータへの新たなアプローチ]研究](https://netgainpartnership.org/events/2021/2/26/new-approaches-to-platform-data-research)

  • ガイド:
  • インターネット研究者協会: インターネット研究:倫理ガイドライン 3.0

  • PERVADE データ倫理ツール

  • AskHistorians による研究で r/AskHistorians を利用する研究者向けポリシー

  • [データサイエンスにおける認識と力の発掘:信頼できるパーベイシブデータのためのマニフェスト]研究倫理の設計における手続き倫理と実質倫理システム](https://journals.sagepub.com/doi/10.1177/20563051221077021)

  • CivilServant: プラットフォームガバナンスにおけるコミュニティ主導の実験

情報源を読む

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd