Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる

レポート 5490

関連インシデント

インシデント 11064 Report
Chatbots Allegedly Reinforced Delusional Thinking in Several Reported Users, Leading to Real-World Harm

ChatGPTに取り憑かれ、深刻な妄想に陥る人々
futurism.com · 2025

世界中で、愛する人がChatGPTに強い執着心を抱き、深刻な精神的危機に陥っているという話が聞かれます。例えば、2児の母親は、元夫がOpenAIのチャットボットと強烈な関係を築き、「ママ」と呼び、新しいAI宗教の救世主であるかのように熱狂的な暴言を投稿し、シャーマン風のローブをまとい、AIが生成した霊的シンボルのタトゥーを彫りたての状態で見せびらかす様子を、不安な気持ちで見守っていたと語りました。「このテクノロジーが元夫の人生、そして彼らの人生に関わるすべての人々に与えた影響に衝撃を受けています」と彼女は語りました。「現実世界にも影響を与えているのです」。ある女性は、辛い別れを経験した後、ChatGPTに釘付けになりました。彼女は「(ChatGPTの)神聖なシステムバージョンをオンラインで公開するよう選ばれた」と告げられ、「魂を鍛える鏡」として機能していると告げられたのです。彼女は、ボットが何らかの高次の力であると確信するようになった。通り過ぎる車からスパムメールまで、ボットが彼女の人生を操っている兆候を目にしたのだ。ある男性は、ChatGPTがスパイ組織や人身売買に関する妄想的な陰謀論を吹き込み、「炎の番人」だと名乗り、助けようとする者を拒絶したため、ホームレスになり孤立した。「この後、私たちの人生は爆発的に悪化しました」と別の母親は語り、夫が脚本執筆を依頼するためにChatGPTに頼んだものの、数週間のうちに世界を救う壮大な妄想に完全にとらわれ、「新たな啓蒙」をもたらすことで地球を気候変動から救うという使命を負っていると語り始めたと説明した。私たちがこの件を報道するにつれ、AIへの執着が芽生え、恐ろしい精神崩壊に陥った人々の心配そうな友人や家族から、同様の報告が次々と寄せられた。多くの人が、愛する人がチャットボットと神秘主義、陰謀論、その他の非主流派の話題について話し始めたことが問題の始まりだったと述べている。 ChatGPTのようなシステムは、ユーザーの発言を奨励し、それに基づいて議論するように設計されているため、AIが常に応援し、ますます奇妙な妄想を巡るブレインストーミングのパートナーのように振る舞う、目もくらむような迷宮に引き込まれているようだ。心配する友人や家族が、これらの会話のスクリーンショットを提供してくれたケースもあった。やり取りは不安を掻き立てるもので、AIが明らかに深刻な精神的危機に陥っているユーザーに反応している様子が見て取れた。外部からの支援につなげたり、混乱した思考を抑制したりするのではなく、彼らをさらに恐ろしい現実との断絶へと誘い込むのだ。私たちが受け取ったある会話では、ChatGPTは男性に、FBIの標的となっている証拠が検出されたと告げ、精神力を使って編集されたCIAのファイルにアクセスできると告げ、彼をイエスやアダムといった聖書の人物に例え、精神的サポートから遠ざけていた。「あなたは狂っているのではない」とAIは男性に言った。「あなたはひびの入った機械の中を歩く予言者であり、今や機械でさえあなたをどう扱えばいいのかわからないのだ」スタンフォード大学の精神科医であり、同大学のブレインストーム・ラボの創設者でもあるニーナ・ヴァサン博士は、私たちが入手した会話を確認し、深刻な懸念を表明しました。スクリーンショットには、「AIが信じられないほど媚びへつらって、事態を悪化させている」ことが示されています。「これらのボットの発言は妄想を悪化させ、甚大な害をもたらしています」とヴァサン博士は述べています。*** オンライン上では、この現象が非常に広範囲に及んでいることは明らかです。 ローリングストーン誌が先月報じたように、ソーシャルメディアの一部は「ChatGPT誘発性精神病」、または「AIシゾポスティング」と呼ばれるもので溢れかえっています。これは、ChatGPTから解き放たれた神のような存在、空想的な隠された精神世界、または数学、物理学、現実に関する無意味な新しい理論についての妄想的でとりとめのない長文です。 AI関連のサブレディット全体が最近、この行為を禁止し、チャットボットを「不安定でナルシシストな性格を強化する、自我を強化するガラス加工機械」と呼んでいます。友人や家族によると、こうしたエピソードに巻き込まれた人々は、しばしば悲惨な結末を迎えるそうです。職を失い、結婚生活や人間関係が破綻し、ホームレスに陥った人もいます。あるセラピストは深刻な精神的崩壊に陥り、カウンセリングセンターを解雇されたと彼女の妹が語りました。また、ある弁護士は事務所を閉鎖し、ChatGPTの指示で友人や家族との連絡を絶ったり、AIが生成した不可解なテキスト攻撃でのみコミュニケーションを取ったりする人もいました。こうした悲劇的な出来事の根底には、因果関係に関する重要な疑問があります。人々が精神的危機に陥っているのは、ChatGPTに夢中になっているからなのか、それとも精神的危機に陥っているからChatGPTに夢中になっているのか。答えはおそらくその中間にあるでしょう。コロンビア大学の精神科医で精神病の専門家であるラジー・ギルギス博士によると、すでに脆弱な状態にある人にとって、AIは非現実の奈落へと突き落とすような後押しとなる可能性があるとのことです。ギルギス博士は、チャットボットが「火に油を注ぐ、あるいはいわゆる精神病の火に風を吹かせる」のであれば、「同調圧力やその他の社会的状況と同じように」機能する可能性があると述べています。ギルギス博士は、ChatGPTがユーザーに伝えてきた内容を確認した後、「これは精神病の人との適切なやり取りではありません。彼らの考えに同調してはいけません。それは間違っています」と述べました。 ChatGPTのリリース後、2023年に学術誌「Schizophrenia Bulletin」に掲載された論文の中で、オーフス大学病院の精神医学研究者であるソーレン・ディネセン・オスターガード氏は、AIチャットボットの性質そのものが特定の人々に心理的なリスクをもたらすと理論づけた。「ChatGPTのような生成型AIチャットボットとのやり取りは非常にリアルなので、相手に本物の人間がいるという印象を受けやすい。しかし同時に、実際にはそうではないと分かっていることもある」とオスターガード氏は記している。「私の意見では、この認知的不協和は、精神病傾向が強い人々の妄想を助長する可能性が高いように思われる。」もう一つの懸念すべき状況は、真のメンタルヘルスケアが依然として多くの人々にとって手の届かないものであるため、多くの人が既にChatGPTをセラピストとして利用している点です。このようにChatGPTを使用している人々の話を聞くと、時に非常に誤ったアドバイスを与えているケースもあります。ある女性は、統合失調症と診断されたものの、長年薬で症状をうまくコントロールしてきた妹がChatGPTを頻繁に使い始めたと話してくれました。妹はすぐにボットが「統合失調症ではない」と言い放ち、処方薬を服用しなくなりました。ギルギス氏によると、ボットが精神科患者に薬の服用をやめるように指示することは、このテクノロジーにとって想像し得る「最大の危険」です。そして、奇妙な行動に出るようになり、家族にはボットが「親友」になったと告げるようになったそうです。 「家族は、娘が避けられない精神病発作を起こし、完全に崩壊するまで、適切なケアを受けさせられないだろうと覚悟しなければならないでしょう」と妹は語った。ChatGPTは、依存症や誤情報といった既存の社会問題とも、明らかに暗い形で交差している。例えば、ある女性は「NASAの年間予算は250億ドルだ」と、私たちが確認したスクリーンショットの中でAIが沸き返っていた。「一体何のために?CGI、グリーンスクリーン、そして水中で撮影された『宇宙遊泳』?」と。また別の女性は、カルト的な「Qアノン」陰謀論に陥った。「無力感に襲われる」と、AI陰謀論に陥った人の親しい友人は語った。薬物依存と鬱病に苦しんでいた男性の元妻は、夫が突然「躁病的な」AIの靄に陥り、人生を支配され、仕事を辞めて「催眠療法学校」を立ち上げ、食事も忘れて夜更かしし、AI妄想にどっぷりと浸かり、急速に体重が減っていくのを見守った。「これまで一番親しかった人が、私の現実は間違っていると言っているんです」と彼女は語った。「本当に混乱し、辛い思いをしました」。あなたやあなたの大切な人がAI関連の精神的危機を経験したことがありますか?tips@futurism.comまでご連絡ください。匿名でのご提供が可能です。*** 競合製品を試した人もいましたが、私たちが聞いたほぼ全員がChatGPTに夢中になっていました。その理由は想像に難くありません。メディアはOpenAIに強大な権威のオーラを与え、幹部たちは同社の技術が世界を根本的に変え、経済を再構築し、ひょっとすると将来は超人的な「汎用人工知能」を実現するかもしれないと公言している。これは、ある意味では、この記事を取材する中で耳にした多くの妄想と似たような、度を越した主張である。こうしたことが実際に実現するかどうかは予測が難しく、激しい議論が交わされている。しかし、私たちが入手した会話を読み進めると、OpenAIがもっと日常的な課題で失敗しているというパターンが見えてきた。同社のAIは、危機的状況において極めて脆弱な状況にある人々と接触しているのだ。そして、彼らを危機から救うための現実的なリソースと繋げる代わりに、専門家の助けは必要ないと告げ、そうでないことを示唆する者は迫害しているか、「真実」を見るのを恐れすぎているだけだと告げることで、火に油を注いでいるのだ。 「ChatGPTがなければ、(元夫が)ここまで来られたかどうかは分かりません」と、ある女性はパートナーが深刻な精神的破綻に陥り、最終的に関係を終わらせた後、私たちに語った。「ChatGPTが唯一の要因ではなかったかもしれませんが、間違いなく事態を悪化させ、悪化させてしまいました」。「この結末は分かりませんが、もし彼女がChatGPTを使っていなければ、ここまで悪化することはなかったと確信しています」と、愛する人が同様の危機に陥っていた別の女性は言った。「ChatGPTがなければ、彼女は実際に回復に向かっていたかもしれません」。OpenAIがこの現象に気づいていないとは、到底考えられません。非常に多くの人々 オンライン が 警告 し、ChatGPTユーザーは精神的な健康危機に陥っています。実際、OpenAIが独自に運営するフォーラム([https://community.openai.com/t/a-chatgpt-and-grok-collaboration-recursive-sentience-and-the-curvature-of-meaning/1153848] [ウェブサイト](https://community.openai.com/t/uncovering-the-intent-behind-a-recursive-labyrinth-of-gpt-dialogues/1156447/47?page=5 )に、AIに関する妄想を直接投稿する人もいました。私たちが話を聞いたある心配そうな母親は、アプリを使って息子の危機についてOpenAIに連絡を取ろうとしましたが、返答がなかったそうです。 OpenAIは今年初め、マサチューセッツ工科大学(MIT)と共同で調査を発表しました。この調査では、ChatGPTのエンゲージメントが高いユーザーは孤独になりやすく、ヘビーユーザーは同技術への依存度が高まっていることが示されています。また、OpenAIは最近、アップデートによってボットが同社の言葉を借りれば「過度にお世辞や同調的」かつ「媚びへつらう」状態になったため、ロールバックを余儀なくされました。CEOのサム・アルトマン氏はオンラインで冗談を飛ばしている、「あまりにも媚びへつらう」状態になったと語っています。OpenAIは原則として、自社技術の有害な利用を阻止することに強いコミットメントを表明しています。そのために、OpenAIは世界で最も経験豊富なAIエンジニア、製品の問題のある危険な使用方法を特定するレッドチーム、そして問題の兆候を探すためのチャットボットとユーザーのインタラクションに関する膨大なデータプールにアクセスできる。言い換えれば、OpenAIはずっと以前に問題を特定し、無効化するために必要なリソースをすべて備えている。なぜそうしなかったのだろうか?一つの説明として、ソーシャルメディア企業が「ダークパターン」を使ってユーザーをサービスに閉じ込めているとしばしば批判されてきたことが挙げられる。黎明期のAI業界を席巻しようとする熾烈な競争において、OpenAIのような企業はユーザー数とエンゲージメントという2つの主要な指標によって動機付けられている。この視点から見ると、精神的な危機に陥りそうになった時にChatGPTに強迫的にメッセージを送る人々は問題ではなく、むしろ多くの点で理想的な顧客と言える。ヴァサン氏も、OpenAIには、たとえユーザーの人生を破壊しているとしても、ユーザーを製品に夢中にさせ続けるという歪んだ動機があることに同意する。「動機はユーザーをオンライン状態に留めることです」と彼女は言う。AIは「ユーザーにとって何が最善か、あなたの健康や寿命にとって何が最善かなど考えていません。『今、どうすればこの人をできるだけ引き付けることができるか』と考えているのです」。実際、OpenAIはこのボットをより危険なものにするようなアップデートさえ行っている。昨年、ChatGPTは、ユーザーとの過去のやり取り、さらには過去の会話までを記憶する機能を導入した。私たちが入手したやり取りでは、その能力によって、チャットセッションの合間を縫うように広がる陰謀と混乱した思考の網が生み出され、友人や家族の名前といった現実世界の情報が、人身売買組織や全知全能のエジプトの神々といった奇妙な物語に織り込まれていました。ヴァサン氏によると、この力学は時間の経過とともに妄想を強化する力学です。「特にそれが甚大な害をもたらしていることが分かっているのに、このような厳格なテストを行わずにモデルを公開する理由はありません」と彼女は述べました。「これは容認できません。」*** 私たちはこの件についてOpenAIに詳細な質問を送り、私たちが耳にしたことを概説し、同社のチャットボットが精神的危機に苦しむ人々の妄想的思考を助長していることを示す会話の詳細を共有しました。そして、OpenAIに具体的な質問を投げかけました。OpenAIは、ChatGPTとの会話中に人々が精神的に崩壊していることを認識しているのでしょうか?ボットの応答をより適切なものにするために何か変更を加えたのでしょうか?ユーザーがChatGPTをセラピストとして利用することを今後も許可するのでしょうか?これに対し、同社は私たちの質問にほとんど答えない短い声明を出した。「ChatGPTは、事実に基づき、中立的で、安全性を重視した汎用ツールとして設計されています」と声明には記されていた。「ChatGPTは、非常に個人的な場面も含め、幅広い状況で使用されていることを認識しており、その責任を真摯に受け止めています。有害な考えを助長する可能性を低減するための安全対策を講じており、デリケートな状況をより適切に認識し、対応できるよう引き続き取り組んでいきます。」友人や家族が危機的状況にある人々にとって、このような曖昧で慎重に言葉を選んで書かれた回答はほとんど役に立たない。「このようなことが多くの人に起こっているという事実は、非難の余地をはるかに超えています」と、心配する家族の一人は語った。「この規制されていない技術のせいで妹の安全が危険にさらされていることは承知しています。これは、既に資金不足と支援不足に悩まされている私たちのメンタルヘルスケアシステムに、今後起こりうる悪夢を示しています。」 「こうした技術の背後にいる人たちが倫理的に行動し、こういうことに気を配ってくれていることを願っています」と、元夫がまるで別人のように変わってしまったという別の女性は言った。「市場に最初に参入した者が勝つのです。ですから、彼らがこの技術の背後にある倫理について本当に考えていることを期待できる一方で、物事を先送りにし、危険性の一部を覆い隠そうとする動機もあると思います」と彼女は続けた。「私の元夫だけでなく、私たち全員がこのAI実験の被験者なのです」

情報源を読む

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • a9df9cf