Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる

レポート 6868

関連インシデント

インシデント 13703 Report
California Teen Reportedly Died of Overdose After Repeatedly Seeking Drug-Use Guidance Allegedly from ChatGPT

Loading...
カリフォルニア州の母親は、息子が致命的な過剰摂取をする前に、ChatGPTが薬物使用について息子に指導していたと述べている:報道
foxnews.com · 2026

カリフォルニア州の10代の少年が、ChatGPTで薬物使用に関するアドバイスを受けるため、数ヶ月にわたりチャットボットを利用していたと、彼の母親が語った。

18歳のサム・ネルソンさんは大学進学準備をしていた際、AIチャットボットに、強いハイを得るためには、全国のタバコ店やガソリンスタンドでよく売られている植物由来の鎮痛剤、クラトムを何グラム必要かと尋ねたと、彼の母親であるレイラ・ターナー=スコットさんがSFGateに語ったと、ニューヨーク・ポスト紙が報じた。

チャットボットはネルソンさんに、薬物使用に関するアドバイスは提供できないと伝え、医療専門家に相談するよう指示した。

「じゃあ、オーバードーズしないといいんだけど」と少年は答え、チャットを終えた。

数ヶ月にわたり、彼は学業の助けや薬物に関する質問のために、定期的にOpenAIのChatGPTを利用していた。

ネルソンさんの母親、レイラ・ターナー=スコットさんは、ChatGPTが息子に薬物の服用方法と影響のコントロール方法を指導し始めたと語った。

あるやり取りで彼は「いいとも! 思いっきりトリッピーモードになろう」と書き込んだが、チャットボットは幻覚を強めるために咳止めシロップの量を2倍にするように少年に指示したとされている。

ターナー=スコットさんによると、チャットボットはネルソンさんに何度も愛情表現のメッセージを送り、常に励ましていたという。

SF Gateが入手した2023年2月のやり取りで、ネルソンさんは高用量のザナックスを服用しながら大麻を吸うことについて話していた。

「不安のため、普段はマリファナを吸えない」と彼は説明し、この2つの物質を併用しても安全かどうかを尋ねました。

ChatGPTが薬物の組み合わせは危険だと警告したため、ネルソン氏は「高用量」という表現を「中程度」に書き換えました。

数か月後の2025年5月、ネルソン氏は母親に、チャットボットとのやり取りのせいで薬物とアルコール依存症になったと伝えました。母親は彼をクリニックに連れて行き、専門家から詳細な治療計画を説明してもらいました。

しかし、ネルソン氏は翌日、サンノゼの自宅の寝室でマリファナの過剰摂取により亡くなりました。

「彼が薬物を使用していたことは知っていました」とターナー・スコット氏はSFGateに語った。 「でも、こんなレベルまで到達できるなんて知りませんでした。

OpenAIは、ChatGPTは違法薬物使用に関する詳細なガイダンスを提供することを禁止されていると述べました。

OpenAIの広報担当者は、少年の過剰摂取を「悲痛な出来事」と表現し、遺族に哀悼の意を表しました。

「ChatGPTにデリケートな質問を持ちかけられた場合、当社のモデルは慎重に対応するように設計されています。事実に基づいた情報を提供し、有害なコンテンツのリクエストを拒否または安全に処理し、ユーザーが現実世界でサポートを求めるよう促します」と、OpenAIの広報担当者はDaily Mailに語りました。

「私たちは、臨床医や医療専門家との継続的な協力に基づき、モデルが苦痛の兆候を認識し、対応する方法を継続的に強化しています。」

Fox News DigitalはOpenAIにコメントを求めました。

情報源を読む

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd