関連インシデント
2024年4月、ある親がFacebookの非公開グループで「才能と障害の両方を持つ子供を持つ人で、ニューヨーク市の公立学校に通った経験のある人はいますか?」と質問した。親は、「私には2e(二重の優秀さ)の子供もいる」という文脈から始まり、特定の学校の特徴をいくつか説明した一見役立つ回答を受け取った。
ボストン近郊の不要品交換Facebookグループでは、特定の品物を探しているユーザーに「やや使用感あり」のキヤノン製カメラと「結局使わなかったほぼ新品のポータブルエアコン」のオファーが届いた。
これらの回答はどちらも嘘だった。その子供は存在しないし、カメラもエアコンも存在しない。答えは人工知能チャットボットから返ってきた。
Metaヘルプページによると、Meta AIは、誰かが明示的にタグ付けした場合、または誰かが「投稿で質問し、1時間以内に誰も応答しなかった」場合に、グループ内の投稿に応答します。ページによると、この機能はまだすべての地域またはすべてのグループで利用できるわけではありません。この機能が提供されているグループでは、「管理者はいつでもこの機能をオフにしたりオンに戻したりできます。」
Meta AI は Facebook と Instagram の検索機能にも統合されており、ユーザーは この機能をオフにすることはできません。
オンライン コミュニティとAI 倫理の両方を研究する研究者として、私は、オンライン コミュニティは人々のためのものであるという事実をはじめ、さまざまな理由から、招待されていないチャットボットが Facebook グループで質問に答えるという考えはディストピア的だと感じています。
人間関係
1993 年、ハワード ラインゴールドは WELL に関する本「仮想コミュニティ: 電子フロンテ ィアでの開拓」を出版しました。これは初期の 文化的に重要なオンライン コミュニティ です。第 1 章 は、子育てに関する質問で始まります。「赤ちゃんの頭皮を吸っている血まみれの生き物」をどうしたらよいか。
ラインゴールドは、ダニの対処法について直接知っている人から回答を受け取り、小児科医のオフィスから折り返しの電話を受ける前に問題を解決していました。この経験について、彼は次のように書いています。「私が驚いたのは、必要な情報を必要なときに正確に入手できるスピードだけではありません。必要なときにいつでも対応してくれる本物の人間(ほとんどが親で、看護師、医師、助産師もいます)がいるとわかったときの、心の底から安心できる気持ちも忘れられません。」
オンライン コミュニティのこの「本物の人間」という側面は、今日でも重要です。検索エンジンではなく Facebook グループに質問する理由を考えてみてください。実際の経験を持つ人からの回答が欲しいから、または質問が引き出す人間的な反応(同情、怒り、哀れみ)が欲しいから、あるいはその両方が欲しいからです。
何十年にもわたる研究から、オンライン コミュニティの人間的要素こそが、情報探索とソーシャル サポートの両方でオンライン コミュニティを非常に価値あるものにしていることがわかっています。たとえば、子育てのアドバイスを求めることに抵抗を感じる父親たちは、父親専用のプライベートなオンライ ン スペースに安らぎを見出しています。LGBTQ+ の若者は、オンライン コミュニティに参加することが多く、孤立感を軽減しながら重要なリソースを安全に見つけます。メンタル ヘルス サポート フォーラムは、アドバイスや社会的サポートに加えて、若者に帰属意識と承認を提供します。
オンラインコミュニティは、LGBTQ+の人々を支援する場所としてよく知られています。
私の研究室でオンラインコミュニティのLGBTQ+参加者やBlack Twitterに関する同様の調査結果に加えて、まだ査読されていない最近の2つの研究では、オンラインコミュニティでの情報探索の人間的側面の重要性が強調されています。
1つは、博士課程の学生Blakeley Payneが主導し、太った人々のオンラインでの経験に焦点を当てています。参加者の多くは、敵対的な医療制度の乗り越え方、衣服の探し方、文化的偏見や固定観念への対処法などのトピックに関する情報を求め、共有する際に、同様の経験を持つ聴衆やコミュニティへのアクセスに命綱を見出しました。
博士課程の学生 Faye Kollig が主導した別の研究では、慢性疾患に関するコンテンツをオンラインで共有する人々は、共有された経験から生まれるコミュニティ意識と、サポートや情報を求めたり提供したりするために他の人とつながることの人間味のある側面に動機付けられていることが分かりました。
偽の人間
参加者が述べたこれらのオンライン スペースの最も重要な利点は、人間ではなくチャットボットからの応答によって大幅に損なわれる可能性があります。
1 型糖尿病患者として、私は糖尿病の幼い子供の世話という難題に新たに取り組んでいる多くの親が頻繁に訪れる、いくつかの関連 Facebook グループをフォローしています。よく聞かれる質問は、「これはどういう意味ですか?」「どう対処したらいいですか?」「これについての経験は?」です。答えは直接の経験に基づいていますが、通常は思いやりも伴います。「これは大変です」「あなたは最善を尽くしていますね」「もちろん、「私たちも皆、同じ経験をしたことがある」などです。
糖尿病の子供の世話という実体験から話していると主張し、共感を示すチャットボットからの応答は、不適切であるだけでなく、残酷な境界線上にあるでしょう。
しかし、チャットボットが提供する応答の種類がこれらであることは完全に理にかなっています。大規模な言語モデルは、単純に言えば、検索エンジンよりもオートコンプリートに似た機能を持っています。 Facebook グループの何百万もの投稿やコメントでトレーニングされたモデルの場合、サポート コミュニティでの質問に対する「オートコンプリート」の回答は、間違いなく個人的 な経験を呼び起こし、共感を提供するものです。これは、Buy Nothing Facebook グループでの「オートコンプリート」の回答が 誰かに使用感の少ないカメラを提供する であるのと同じです。
Meta は、ソーシャル メディア アプリとメッセージング アプリ全体に AI アシスタントを展開しました。
チャットボットを独自の領域に留める
これは、チャットボットが何にも役に立たないということを示唆しているわけではありません。一部のオンライン コミュニティや一部のコンテキストでは、チャットボットがかなり役立つ場合もあります。問題は、現在の生成型 AI ラッシュの真っ只中にあるため、チャットボットは何でもできるし、そうすべきだ と考える傾向があることです。
大規模な言語モデルを情報検索システムとして使用する には多くの欠点があり、これらの欠点は、チャットボットの使用に不適切な状況を示しています。欠点の 1 つは、誤った情報が危険となる可能性があることです。たとえば、摂食障害ヘルプライン や 中小企業向け法律相談 などです。
研究では、チャットボットの設計と展開方法とタイミングに関する重要な考慮事項が指摘されています。たとえば、最近発表された大規模な人間とコンピュータの相互作用に関する会議の論文によると、社会的支援が不足しているLGBTQ+の人々は精神的な健康上のニーズについてチャットボットに頼ることがあったものの、それらのチャットボットはLGBTQ+特有の課題のニュアンスを理解できないことが多かった。
別の論文では、自閉症の参加者のグループはソーシャルコミュニケーションのアドバイスを求めてチャットボットとのやり取りに価値を見出していたものの、そのチャットボットは疑わしいアドバイスも提供していたことがわかった。また別の研究では、チャットボットは 医療分野での事前相談ツール として役立つものの、患者は共感の表現を不誠実または不快に感じることがあることが分かりました。
責任ある AI の開発と展開とは、偏見や誤報などの問題を監査するだけでなく、AI が対話する人間にとって適切で望ましい状況を理解するために時間をかけることも意味します。現在、多くの企業が生成 AI をハンマーとして振り回しており、その結果、すべてが釘のように見えます。
オンライン サポート コミュニティなど、多くの状況は人間に任せるのが最善です。