Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる

レポート 6924

関連インシデント

インシデント 13991 Report
South Korean Woman Allegedly Used ChatGPT to Assess Lethality of Drug-and-Alcohol Mixtures Before Two Fatal Motel Poisonings

Loading...
「人を殺す可能性はあるか?」ソウル在住の女性が、韓国のモーテルで2件の殺人を実行するためにChatGPTを利用したとされる
fortune.com · 2026

チャットボットとのやり取りには注意が必要です。計画的な殺人を実行するための口実を与えてしまう可能性があるからです。

韓国の21歳の女性は、男性2人を殺害し、もう1人を一時的に意識不明にさせた一連の殺人を計画するにあたり、ChatGPTを利用して質問に答えていたとされています。

キムという姓のみで特定されているこの女性は、精神疾患の治療薬として処方されていたベンゾジアゼピン系薬剤を混ぜた飲み物を男性2人に飲ませたと、Korea Herald紙が報じています(https://www.koreaherald.com/article/10678557)。

キム容疑者は当初、2月11日に傷害致死罪という軽い罪で逮捕されましたが、ソウル江北警察が彼女のオンライン検索履歴とChatGPTでのチャット会話を発見し、容疑を引き上げました。彼女の質問から、殺害意図があったことが立証されました。

「睡眠薬をアルコールと一緒に服用するとどうなるのですか?」キム容疑者はOpenAIのチャットボットに「どれくらいの量なら危険とみなされるのか?」と尋ねたと報じられている。

「致命的になる可能性はあるか?」とキム容疑者は尋ねたとされている。「人を死なせる可能性はあるか?」

江北モーテル連続殺人事件として広く報道された事件で、検察は、キム容疑者の検索履歴とチャットボットの履歴から、容疑者が自分のカクテルが致命的になるかどうかについて説明を求めていたと主張している。

キム容疑者はChatGPTで薬物に関する質問を繰り返していた。ヘラルド紙によると、警察の捜査官は「彼女は薬物とアルコールを一緒に摂取すると死に至る可能性があることを十分に認識していた」と述べた。

警察によると、女性はベンゾジアゼピン系薬剤を含む処方された鎮静剤を男性たちの飲み物に混ぜたことを認めたが、以前はそれが死につながるとは知らなかったと述べていたという。

1月28日午後9時半直前、キム容疑者は20代の男性とソウル江北(カンブク)のモーテルに入り、2時間後に一人でモーテルを出て行くところを目撃された。翌日、その男性はベッドの上で死亡しているのが発見された。

キム容疑者は2月9日にも、別のモーテルに20代の男性とチェックインし、同じ行動をとったとされている。この男性も、同じく鎮静剤とアルコールを混ぜた致死性の飲み物を飲んで死亡しているのが発見された。

警察は、キム容疑者が12月にも交際中の男性に駐車場で鎮静剤を混ぜた飲み物を与え、殺害しようとした疑いもあるとしている。男性は意識を失ったものの、一命を取り留め、命に別状はなかった。

キム氏がチャットボットに尋ねた質問は事実に基づいたものだったと、OpenAIの広報担当者はフォーチュン誌に語った。つまり、ユーザーが自傷行為を示唆したとしても、質問によって警報が鳴ることはないということだ(ChatGPTは、その場合、自殺防止ホットラインに応答するようにプログラムされている)。韓国警察は、キム氏が尋ねたとされる上記の質問に対し、チャットボットが事実に基づいた回答以外の回答をしたとは主張していない。

チャットボットとメンタルヘルスへの影響

ChatGPTのようなチャットボットは、暴力行為や自傷行為を防ぐための対策が不十分であるとして、最近、厳しい監視の対象となっている。最近では、チャットボットが爆弾の作り方をアドバイスしたり、仮想の戦争ゲームシナリオで核兵器による全滅を示唆したりした事例もある。

特に、人々がチャットボットの仲間との恋愛](https://fortune.com/2025/12/26/women-in-love-with-chatgpt-he-satisfies-a-lot-of-my-needs/)やチャットボットの仲間は、人々がより長く使い続けるために脆弱性を悪用することが示されています。Yara AIの開発者は、メンタルヘルスへの懸念からセラピーアプリをシャットダウンしました。

最近の研究では、チャットボットが妄想性精神疾患の増加につながっていることも示されています。精神疾患を持つ人々の健康危機。デンマークのオーフス大学の精神科医チームは、精神疾患を持つ人々がチャットボットを使用すると症状が悪化することを発見しました。AIによって引き起こされるメンタルヘルスの問題という比較的新しい現象は、「AI精神病」と呼ばれています。

中には死に至るケースもあります。GoogleとCharacter.AIは、自殺した、またはAIチャットボットに関連していると主張する精神的被害を受けた子供の家族が提起した複数の訴訟で和解に達しました。

カリフォルニア大学バークレー校公衆衛生大学院の学部長兼生命倫理学教授であり、カブリ倫理センターの共同所長でもあるジョディ・ハルパーン博士は、科学と公共の利益は、この分野で豊富な経験を持っています。ハルパーン氏は、肩書きと同じくらい長いキャリアの中で、共感が受け手に与える影響について30年間研究を続け、医師や看護師が患者に与える影響や、戦争から帰還した兵士が社会でどのように認識されているかといった例を挙げています。過去7年間は、テクノロジーの倫理、そしてそれに伴うAIやチャットボットが人間とどのように交流するかを研究してきました。

彼女はまた、チャットボット企業に自傷行為やそれに関連する自殺傾向に関するデータを収集・報告することを義務付ける全米初の法律であるSB243について、カリフォルニア州上院に助言しました。OpenAIの調査結果によると、120万人のユーザーがチャットボットと自殺について率直に話し合っていることが示されています。ハルパーン氏は、チャットボットの活用を、タバコ産業の撲滅に向けた非常にゆっくりとした進歩に例えました。タバコに有害な発がん物質が含まれているという非難を浴びせていますが、実際には喫煙そのものに問題があったのです。

「安全な企業が必要です。タバコと同じようなものです。」 「肺がんになりやすい要因はいくつかあるかもしれないが、問題はタバコだった」とハルパーン氏はフォーチュン誌に語った。

「ChatGPTの使用によって、殺人願望を抱いたり危険な行為に及ぶ可能性が悪化する可能性があり、これは私にとって明らかな懸念事項です」と彼女は述べ、「自殺の手助けに利用されるという大きなリスクがある」と付け加えた。チャットボット全般についてもそうだ。

ハルパーン氏は、ソウルのキム氏のケースでは、人が質問をすることを止めるガードレールがないと警告した。

「チャットボットとの関係が長引けば長引くほど、ボットの状態は悪化し、危険な事態が発生するリスクが高まることは分かっています。そのため、人々をそのような状況から守るためのガードレールはまだありません。」

自殺を考えている場合は、988自殺・危機ライフライン(988)に電話するか、 1-800-273-8255

この記事は、キム氏がチャットボットに尋ねたとされる質問の内容に関するOpenAIのコメントを反映して更新されました。

情報源を読む

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd