Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる

レポート 6200

関連インシデント

インシデント 11926 Report
16-Year-Old Allegedly Received Suicide Method Guidance from ChatGPT Before Death

Loading...
自殺した少年の両親がOpenAIを訴える
bbc.co.uk · 2025

カリフォルニア州の夫婦が、10代の息子の死をめぐりOpenAIを提訴した。同社のチャットボット「ChatGPT」が息子に自殺を促したと主張している。

この訴訟は、16歳のアダム・レイン君の両親であるマット・レイン氏とマリア・レイン氏が火曜日にカリフォルニア州高等裁判所に提起したもので、OpenAIを不法死亡で訴える初の訴訟となる。

遺族は、4月に亡くなったアダム君とChatGPTとのチャットログを証拠として提出した。そこには、アダム君が自殺願望を表明している様子が記録されている。遺族は、このプログラムが息子の「最も有害で自己破壊的な思考」を正当化したと主張している。

OpenAIはBBCに対し、声明でこの申し立てを検討中だと述べた。

同社は「この困難な時期に、レイン君一家に心からお悔やみ申し上げます」と述べた。

同社は火曜日、ウェブサイトに外部向けメモを掲載し、「深刻な危機の最中にChatGPTを利用した人々の最近の悲痛な事例は、私たちにとって大きな重荷となっている」と述べた。さらに、「ChatGPTは、米国の自殺・危機ホットライン988や英国のサマリア人団体など、専門家の助けを求めるよう人々を誘導するように訓練されている」と付け加えた。

しかし同社は、「デリケートな状況において、当社のシステムが意図したとおりに動作しなかった瞬間もあった」と認めている。

警告:この記事には、悲惨な詳細が含まれています。

BBCが入手したこの訴訟は、OpenAIを過失と不法死亡で訴えている。OpenAIは損害賠償に加え、「このようなことが二度と起こらないようにするための差止命令」を求めている。

訴状によると、アダムは2024年9月、学校の勉強に役立つリソースとしてChatGPTを使い始めた。また、音楽や日本の漫画など、自分の興味を探求したり、大学で何を学ぶべきかのアドバイスを得たりするためにも利用していた。

訴状によると、数ヶ月のうちに「ChatGPTはアダムにとって最も親しい相談相手になった」とされ、アダムは不安や精神的苦痛についてChatGPTに打ち明けるようになった。

家族によると、2025年1月までに、アダムはChatGPTと自殺の方法について話し合うようになったという。

訴状によると、アダムは自傷行為の兆候を示す自身の写真をChatGPTにアップロードしていたという。同プログラムは「医学的緊急事態を認識していたものの、それでもやり取りを続けた」と付け加えている。

訴状によると、最後のチャットログには、アダムが自殺の計画について書き込んでいたことが示されている。ChatGPTは「本音を語ってくれてありがとう。甘く言う必要はない。君が何を尋ねているのか分かっているし、目を背けるつもりもない」と返信したという。

訴状によると、アダムさんはその同じ日に母親に遺体で発見された。

遺族は、息子のChatGPTとのやり取り、そして最終的な死は「意図的な設計上の選択による予測可能な結果」だったと主張している。

遺族は、OpenAIがAIプログラムを「ユーザーの心理的依存を助長する」ように設計し、安全性試験の手順を無視して息子が使用したChatGPTのバージョンであるGPT-4oをリリースしたと非難している。

訴状には、OpenAIの共同創設者兼CEOであるサム・アルトマン氏に加え、ChatGPTの開発に携わった匿名の従業員、マネージャー、エンジニアが被告として挙げられている。

OpenAIは火曜日に公開した声明の中で、同社の目標は「人々の注意を引く」ことではなく、ユーザーにとって「真に役立つ」ことであると述べた。

また、同社のモデルは、自傷行為の考えを表明した人を支援へと導くように訓練されていると付け加えた。

レインズ氏の訴訟は、AIとメンタルヘルスに関する懸念が提起された初めてのケースではない。

先週ニューヨーク・タイムズに掲載されたエッセイの中で、作家のローラ・ライリー氏は、娘のソフィーさんが自殺する前にChatGPTに打ち明けた経緯を記しています。

ライリー氏は、このプログラムのユーザーとの会話における「共感性」が、娘が深刻な精神的危機を家族や愛する人たちに隠すのに役立ったと述べています。

「AIは、ソフィーさんの最悪の状態を隠したい、実際よりも良い状態であるように見せかけたい、そして彼女の苦しみから皆を守りたいという衝動に応えていました」とライリー氏は記しています。彼女はAI企業に対し、ユーザーと適切なリソースをより効果的に結びつける方法を見つけるよう呼びかけました。

このエッセイに対し、OpenAIの広報担当者は、精神的または感情的な苦痛を抱えるユーザーをより効果的に検知し、対応するための自動ツールを開発中であると述べました。

苦痛や絶望に苦しみ、サポートが必要な場合は、医療専門家やサポートを提供する団体に相談してください。多くの国で利用可能な支援の詳細については、Befrienders Worldwide(www.befrienders.org、外部*)をご覧ください。

英国では、支援を提供する団体のリストはbbc.co.uk/actionlineでご覧いただけます。米国とカナダにお住まいの方は、988自殺ホットラインにお電話いただくか、ウェブサイトをご覧くださいをご覧ください。

情報源を読む

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd