概要: ソウルでは、ある女性がChatGPTを使って、睡眠薬やベンゾジアゼピン系薬剤をアルコールに混ぜると致命的になる可能性があるかどうかを尋ねた後、男性3人に飲み物を毒物で汚染したとされています。その後、モーテルで別の事件が発生し、男性2人が死亡し、3人目の男性は意識を失いましたが一命を取り留めました。警察は、彼女のチャットボットへの問い合わせと検索履歴を、意図的な行為の証拠として挙げたと報じられています。
Alleged: OpenAI developed an AI system deployed by Kim (suspect in Seoul poisoning case), which harmed Three unnamed men in their 20s in Seoul.
関与が疑われるAIシステム: ChatGPT
インシデントのステータス
インシデントID
1399
レポート数
1
インシデント発生日
2026-01-28
エディタ
Daniel Atherton
インシデントレポート
レポートタイムライン
Loading...
チャットボットとのやり取りには注意が必要です。計画的な殺人を実行するための口実を与えてしまう可能性があるからです。
韓国の21歳の女性は、男性2人を殺害し、もう1人を一時的に意識不明にさせた一連の殺人を計画するにあたり、ChatGPTを利用して質問に答えていたとされています。
キムという姓のみで特定されているこの女性は、精神疾患の治療薬として処方されていたベンゾジアゼピン系薬剤を混ぜた飲み物を男性2人に飲ませたと、Korea Herald紙が報じています(https://ww…
バリアント
「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください
似たようなものを見つけましたか?