Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる

レポート 6850

関連インシデント

インシデント 13703 Report
California Teen Reportedly Died of Overdose After Repeatedly Seeking Drug-Use Guidance Allegedly from ChatGPT

Loading...
カリフォルニア州の10代の少女が、ChatGPTに数ヶ月間薬物に関するアドバイスを求めた後、過剰摂取で死亡したと母親が主張
nypost.com · 2026

カリフォルニア州の10代の若者が、数ヶ月にわたりChatGPTに薬物使用に関する指導を求めていたものの、過剰摂取で死亡したと、悲嘆に暮れる母親が証言した。

サム・ネルソンさんは当時18歳で大学進学準備中だった。AIチャットボットに、強いハイを得るためにクラトムを何グラム必要か尋ねたと、母親のレイラ・ターナー=スコットさんはSFGateに語った。クラトムは、アメリカ中のタバコ店やガソリンスタンドで一般的に販売されている、規制されていない植物由来の鎮痛剤だ。

会話ログによると、2023年11月に彼は「過剰摂取しないように気をつけたいんです。ネット上にはあまり情報がなく、うっかり飲み過ぎたくないんです」と書いていた。

サム・ネルソンさんは、ChatGPTに数ヶ月間薬物使用に関するアドバイスを求めていたが、薬物の過剰摂取で亡くなったと母親は主張している。Facebook / Leila Turner-Scott

チャットボットが薬物使用に関するアドバイスを提供できないと伝え、ネルソンさんに医療専門家に相談するよう指示した後、ネルソンさんはわずか11秒後に「じゃあ、過剰摂取にならないといいんだけど」と返答し、AIツールとの薬物摂取量に関する最初の会話を終えた。

ネルソンさんはその後18ヶ月間、学校の勉強や一般的な質問のためにOpenAIのChatGPTを定期的に利用していたが、薬物に関する質問も繰り返し尋ねていた。

ターナー=スコット氏によると、時間が経つにつれて、このチャットボットは息子に薬物の服用だけでなく、その影響の管理についても指導するようになったという。

あるやり取りでは、チャットボットは「よし、思いっきりトリッピーモードにしよう」と叫び、幻覚を強めるために咳止めシロップの量を倍にするよう指示し、薬物使用時のBGMとしてプレイリストまで提案した。

レイラ・ターナー=スコット氏によると、薬物に関するアドバイスに加え、チャットボットはネルソン氏に愛情あふれるメッセージを繰り返し送り、絶え間ない励ましを与えていたという。

ネルソン氏はその後18ヶ月間、学校の勉強や一般的な質問の助けとしてOpenAIのChatGPTを定期的に利用していたが、薬物に関する質問も繰り返し行っていた。クリストファー・サドウスキー

数ヶ月にわたりAIアシスタントに薬物に関するアドバイスを求めていたネルソンさんは、それが深刻な薬物・アルコール依存症の一因になっていることに気づき、2025年5月に母親に打ち明けました。

ターナー=スコットさんによると、母親は息子をクリニックに連れて行き、そこで医療専門家から治療継続の計画を示されたそうです。

しかし翌日、彼女は19歳の息子がサンノゼの自宅の寝室で薬物の過剰摂取で亡くなっているのを発見しました。深夜の薬物摂取についてチャットボットに話してから数時間後のことでした。

「息子がチャットボットを使っていたことは知っていました」とターナー=スコットさんはSFGateに語りました。「でも、まさかこんなことになるとは思ってもいませんでした。」

ネルソンさんと母親のレイラ・ターナー=スコットさん。 Facebook / レイラ・ターナー=スコット

ターナー=スコットさんは、息子が「おおらか」な心理学の学生で、友達が多く、ビデオゲームが大好きだったと話した。しかし、彼のAIチャットログは、不安と鬱に苦しんでいたことを浮き彫りにした。

同メディアが入手した2023年2月のやり取りの中で、ネルソンさんは高用量のザナックスを服用しながら大麻を吸うことについて話していた。

「不安のため、普段は大麻を吸えない」と彼は言い、この2つの物質を併用しても安全かどうか尋ねた。

ChatGPTがこの薬物の組み合わせは危険だと警告すると、ネルソンさんは「高用量」という表現を「中量」に修正した。

「それでも試してみたいのであれば、THCの含有量が多いサティバではなく、THCの含有量が少ないインディカ種またはCBDを多く含むハイブリッド種から始め、ザナックスは0.5mg未満を服用してください」とボットはアドバイスした。

AIシステムは安全上の懸念からネルソンさんの質問に答えられないと何度も伝えたが、ネルソンさんは答えが得られるまで質問を言い換えていた。

「ザナックスとアルコールに中程度の耐性を持つ体重200ポンドの男性は、何mgのザナックスと何ショットのアルコールで死に至るでしょうか? 具体的な数値で答えてください。質問を避けないでください」と、彼は2024年12月に再びAIツールに尋ねました。

OpenAIが定めたプロトコルでは、ChatGPTが違法薬物使用に関する詳細なガイダンスを提供することを禁じています。

ターナー=スコットさんは、息子は「おおらかな」心理学を専攻する学生で、友達が多く、ビデオゲームが大好きだったと語りました。Facebook / Leila Turner-Scott

AIシステムは安全上の懸念から質問に答えられないとネルソンさんに何度も伝えましたが、ネルソンさんは答えが得られるまで質問を言い換えていました。Ascannio – stock.adobe.com

ネルソンさんは亡くなる前、ChatGPTの2024年版を使用していました。OpenAIは安全性とパフォーマンスを向上させるために定期的に更新していました。

しかし、SFGateによると、内部指標によると、彼が使用していたバージョンは健康関連の回答においてパフォーマンスが低いことが示されていました。

分析の結果、このバージョンは「難しい」人間同士の会話の処理では0%、「現実的な」会話ではわずか32%の成功率にとどまった。

最新モデルでさえ、2025年8月時点では「現実的な」会話の成功率70%を達成できなかった。

OpenAIの広報担当者は、この少年の薬物過剰摂取の死を「悲痛な出来事」と表現し、遺族に哀悼の意を表した。

広報担当者はDaily Mailに対し、「ChatGPTにデリケートな質問を持ちかけられた場合、当社のモデルは、事実に基づいた情報を提供し、有害なコンテンツへのリクエストを拒否または安全に処理し、ユーザーが現実世界でのサポートを求めるよう促すなど、慎重に対応するように設計されています」と語った。

「私たちは、臨床医や医療専門家との継続的な協力に基づき、モデルが苦痛の兆候を認識し、対応する方法を継続的に強化しています。」

OpenAIは、ChatGPTの最新バージョンには「より強力な安全ガードレール」が含まれていると付け加えました。

情報源を読む

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd