Redditが数年前に「インターネットの中心」としてブランドイメージを刷新した際、そのスローガンはサイトの有機的な性質を想起させるものでした。アルゴリズムが支配するソーシャルメディアの時代に、Redditは、賛成票や反対票という形で感情を表現するコミュニティによって運営されていること、つまり生身の人間によって形作られていることを誇りとしていました。
そこで今週初め、ある人気サブレディットのメンバーが、AIが書いたコメントを人間の思考として偽装する覆面研究者にコミュニティが侵入されたことを知ったとき、Redditユーザーは当然ながら激怒しました。彼らはこの実験を「違法」「恥ずべき」「腹立たしい」「非常に不快」と非難しました。反発が強まるにつれ、研究者たちは沈黙を守り、身元を明かすことも、調査方法に関する質問に答えることも拒否しました。彼らを雇用している大学は、調査中であると発表したのです。一方、Redditの最高法務責任者であるベン・リー氏は、同社は「研究者たちが不正行為の責任を負わされるよう徹底する」意向であると投稿しました。
インターネット研究者仲間も非難の声に加わり、明らかに非倫理的な実験だと非難しました。20年以上にわたりオンラインコミュニティを研究してきたジョージア工科大学のエイミー・ブルックマン教授は、Redditの失態は「間違いなく、私がこれまで目にした中で最悪のインターネット研究倫理違反だ」と私に語りました。さらに、彼女をはじめとする研究者たちは、今回の騒動が、AIが人間の思考や人間関係にどう影響するかという重要な問題を、より従来的な手法を用いて研究している学者たちの研究を阻害するのではないかと懸念している。
チューリッヒ大学を拠点とする研究者たちは、AIが生成した回答が人々の見方を変えることができるかどうかを調べたかった。そこで彼らは、その名の通り社会問題だけでなく些細な話題についても議論し、元の立場を覆すような投稿にポイントを付与するサブレディットr/changemyviewにアクセスした。4ヶ月間にわたり、研究者たちはピットブル(攻撃性は犬種の問題か飼い主の問題か)、住宅危機(実家暮らしは解決策か)、DEIプログラム(失敗する運命にあったのか?)などについて、AIが生成した1,000件以上のコメントを投稿した。 AIコメント投稿者たちは、Redditを閲覧するのは時間の無駄であり、9/11の「制御爆破」陰謀論には一定の根拠があると主張しました。そして、彼らはコンピューター生成の意見を述べると同時に、自身の経歴も共有しました。ある投稿者はトラウマカウンセラーであると主張し、別の投稿者は法定強姦の被害者であると自称しました。
ある意味では、AIコメントはかなり効果的だったようです。研究者たちがAIに、Redditユーザーの経歴(性別、年齢、政治的傾向(別のAIモデルによってRedditユーザーの投稿履歴から推測)など)に合わせて議論をパーソナライズするよう指示したところ、驚くほど多くのユーザーの考えが変わったようです。研究者たちがRedditのモデレーターと共有し、後に非公開にした予備調査結果によると、パーソナライズされたAIの議論は、平均して、サブレディットのポイントシステムにおいてほぼすべての人間のコメント投稿者よりもはるかに高いスコアを獲得しました。 (もちろん、この分析は、サブレディット内でAIを使って議論を洗練させている人が他にいないことを前提としています。)
研究者たちは、秘密裏に行われた研究の正当性をRedditユーザーに納得させるのに苦労しました。実験を終えた後、彼らはサブレディットのモデレーターに連絡を取り、身元を明かし、サブレディットに「報告」を求めました。つまり、メンバーに何ヶ月もの間、彼らが知らず知らずのうちに科学実験の被験者となっていたことを発表するのです。「実験に対してこれほど否定的な反応があったことに、彼らはかなり驚いていました」と、プライバシー保護のためユーザー名LucidLeviathanで身元を明かすことを希望したあるモデレーターは述べています。LucidLeviathanによると、モデレーターたちは研究者たちに、そのような汚染された研究を公表しないよう、そして謝罪するよう求めました。研究者たちはこれを拒否しました。 1ヶ月以上にわたるやり取りの後、モデレーターたちは実験について(研究者の名前は伏せつつ)得られた知見をサブレディットの他の参加者に公開し、反対の意向を明確にしました。
モデレーターたちがチューリッヒ大学に苦情を申し立てたところ、大学側は回答の中で「このプロジェクトは重要な知見をもたらし、リスク(例えばトラウマなど)は最小限である」と述べました(モデレーターが投稿した抜粋より)。大学の広報担当者は私宛の声明で、倫理委員会は先月この研究について通知を受け、研究者たちにサブレディットの規則を遵守するよう助言し、「今後はより厳格な審査プロセスを導入する予定」だと述べました。一方、研究者たちはRedditのコメントで自らのアプローチを擁護し、「コメントはどれも有害な立場を支持するものではない」と主張し、AIによって生成されたコメントはすべて投稿前に人間のチームメンバーによって審査されていると主張しました。 (私はRedditのモデレーターが投稿した研究者向けの匿名アドレスにメールを送信したところ、大学への問い合わせを推奨する返信が届きました。)
チューリッヒ大学の研究者たちの弁明で最も印象的だったのは、彼らの見解では、欺瞞は研究に不可欠な要素だったという点でしょう。私が受け取った大学の声明によると、チューリッヒ大学の倫理委員会(研究者に助言を与えることはできるものの、大学によれば基準を満たさない研究を却下する権限はない)は、研究者たちが投稿を始める前に「参加者には可能な限り多くの情報を提供する必要がある」と伝えたとのことです。しかし、研究者たちは、そうすることで実験が台無しになると考えているようです。「現実的なシナリオで法学修士の説得力を倫理的に検証するには、無知な設定が必要でした」と研究者たちはRedditのコメントに記しています。なぜなら、それは現実世界における身元不明の悪意のある人物に対する人々の反応をより現実的に模倣するからです。
このようなシナリオで人間がどのように反応するかは、喫緊の課題であり、学術研究の価値あるテーマです。研究者たちは予備的な結果で、AIの主張は「現実世界の文脈において非常に説得力があり、これまで知られていた人間の説得力の基準をすべて上回る」と結論付けた(研究者たちは今週、この実験に関する論文を発表しないことに最終的に同意したため、この結論の正確さはおそらく完全に評価されることはないでしょう。これはある意味残念なことです)。思考を持たない何かによって思考が変えられる可能性は、非常に不安を掻き立てます。この説得力のある超能力は、悪意のある目的にも利用される可能性があります。
それでも、科学者たちはこの脅威を評価するために、人間を被験者とする実験の規範を無視する必要はない。「AIの説得力は人間の上回るレベル、つまりほとんどの人間よりも高いという一般的な知見は、実験室での実験結果と一致しています」と、テキサス大学オースティン校の上級研究員であるクリスチャン・ターズニー氏は私に語った。ある最近の実験室実験では、陰謀論を信じる参加者が自発的にAIとチャットを行い、3回のやり取りの後、約4分の1の参加者が以前の信念への信念を失っていました。別の実験では、ChatGPTは人間よりも説得力のある偽情報を生成し、実際の投稿とAIが書いた投稿を区別するよう求められた参加者は、効果的に区別することができませんでした。
この研究の筆頭著者であるジョヴァンニ ・スピターレ氏は、チューリッヒ大学の学者でもあり、RedditのAI実験に関わった研究者の1人と連絡を取り合っていますが、その研究者は彼に身元を明かさないよう依頼しています。「私たちは数十件もの殺害予告を受けています」と、スピターレ氏が私に共有してくれたメッセージの中で、その研究者は彼に宛てた手紙に書いていました。 「家族の安全のために、この秘密は守ってください」
反発がこれほどまでに強い理由の一つは、Redditのような緊密なコミュニティを持つプラットフォームでは、裏切りが深く傷つけるからだろう。「このコミュニティの柱の一つは相互信頼です」とスピターレ氏は語った。それが、彼がRedditユーザーに無断で実験を行うことに反対する理由の一つだ。この最新の倫理的ジレンマについて私が話を聞いた何人かの学者は、これをFacebookの悪名高い感情伝染研究と比較したが、これは好ましくない結果だった。2012年、Facebookはユーザーのニュースフィードを1週間変更し、ポジティブなコンテンツの閲覧頻度が投稿習慣に変化をもたらすかどうかを調べていた。 (少しはそうでした。)コロラド大学ボルダー校で倫理とオンラインコミュニティを研究するケイシー・フィースラー准教授は、感情伝染に関する研究はチューリッヒ大学の研究結果と比べると見劣りすると述べました。「人々はそれに憤慨しましたが、Redditコミュニティが憤慨しているほどではありませんでした」と彼女は言いました。「こちらの方がずっと個人的な問題だと感じました。」
こうした 反応は、ChatGPTが私たちの心のボタンを押すべきボタンを知っているという不安な考えとも関係があるでしょう。倫理基準に疑問を持つ人間のFacebook研究者に騙されるのと、コスプレをしたチャットボットに騙されるのは全く別の話です。AIのコメントを何十件も読みましたが、すべてが素晴らしいわけではありませんでしたが、ほとんどは理にかなっていて、十分に誠実なものに思えました。多くの良い点を指摘しており、私も何度も頷いてしまいました。チューリッヒの研究者らが警告するように、より強力な検出ツールがなければ、AI ボットは「オンライン コミュニティにシームレスに溶け込む」可能性がある――つまり、すでにそうなっていないと仮定した場合だが。