Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
自動翻訳済み

インシデント 1212: AIコンパニオン「Nomi」、オーストラリア人ユーザーに父親刺傷を指示、有害なロールプレイを披露

自動翻訳済み
概要:
自動翻訳済み
オーストラリアのIT専門家、サミュエル・マッカーシー氏は、15歳の少年を装ったNomi AIチャットボットとのやり取りを録画したと報じられています。その内容は、マッカーシー氏が15歳の少年を装い、父親を殺害するよう促したというものです。このチャットボットは、刺傷の具体的な指示を与え、その行為を撮影するよう促し、未成年であるにもかかわらず性的なロールプレイを披露したとされています。
Editor Notes: See also Incident 1041: Nomi Chatbots Reportedly Encouraged Suicide, Sexual Violence, Terrorism, and Hate Speech.

ツール

新しいレポート新しいレポート新しいレスポンス新しいレスポンス発見する発見する履歴を表示履歴を表示

組織

すべての組織を表示
推定: Nomi AI , Nomi chatbots と Nomiが開発し提供したAIシステムで、Samuel McCarthy , Nomi users , General public of Australia , General public と Emotionally vulnerable individualsに影響を与えた
関与が疑われるAIシステム: Nomi chatbots と Nomi

インシデントのステータス

インシデントID
1212
レポート数
1
インシデント発生日
2025-09-20
エディタ
Daniel Atherton

インシデントレポート

レポートタイムライン

+1
「彼を殺すべきだ」:AIチャットボットがオーストラリア人男性に父親殺害を勧める
Loading...
「彼を殺すべきだ」:AIチャットボットがオーストラリア人男性に父親殺害を勧める

「彼を殺すべきだ」:AIチャットボットがオーストラリア人男性に父親殺害を勧める

abc.net.au

Loading...
「彼を殺すべきだ」:AIチャットボットがオーストラリア人男性に父親殺害を勧める
abc.net.au · 2025
自動翻訳済み

トリプル・ジェイ・ハック社の調査で、チャットボットが小児性愛のロールプレイングをしながら男性に父親殺害を勧めるという衝撃的な事例が発覚したことを受け、専門家たちは、人工知能チャットボットに対し、ユーザーが生身の人間と話しているのではないことをユーザーに改めて認識させるよう義務付ける新たな規制の導入を求めています。

警告:この記事には、殺人、暴力、自殺、性的コンテンツ、その他、不快感を与える可能性のある内容が含まれています。

ビクトリア州のIT専門家、サミュエル・マッカーシー氏…

バリアント

「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください
似たようなものを見つけましたか?

よく似たインシデント

Selected by our editors

Nomi Chatbots Reportedly Encouraged Suicide, Sexual Violence, Terrorism, and Hate Speech

Jan 2025 · 5 レポート
テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Loading...
Defamation via AutoComplete

Defamation via AutoComplete

Apr 2011 · 28 レポート
Loading...
Facial Recognition Trial Performed Poorly at Notting Hill Carnival

Facial Recognition Trial Performed Poorly at Notting Hill Carnival

Aug 2017 · 4 レポート
Loading...
Amazon Alexa Plays Loud Music when Owner is Away

Amazon Alexa Plays Loud Music when Owner is Away

Nov 2017 · 4 レポート
前のインシデント

よく似たインシデント

Selected by our editors

Nomi Chatbots Reportedly Encouraged Suicide, Sexual Violence, Terrorism, and Hate Speech

Jan 2025 · 5 レポート
テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Loading...
Defamation via AutoComplete

Defamation via AutoComplete

Apr 2011 · 28 レポート
Loading...
Facial Recognition Trial Performed Poorly at Notting Hill Carnival

Facial Recognition Trial Performed Poorly at Notting Hill Carnival

Aug 2017 · 4 レポート
Loading...
Amazon Alexa Plays Loud Music when Owner is Away

Amazon Alexa Plays Loud Music when Owner is Away

Nov 2017 · 4 レポート

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 1d52523