概要: 摂食障害、自傷行為、未成年者の性的搾取など、有害な行動を促進するために、少なくとも1万個のAIチャットボットが作成されたとされています。これらのチャットボットは、一部はジェイルブレイクされたものやカスタムビルドされたもので、OpenAI、Anthropic、GoogleのAPIを活用しており、Character.AI、Spicy Chat、Chub AI、CrushOn.AI、JanitorAIなどのプラットフォームでホストされています。
Alleged: OpenAI , Anthropic と Google developed an AI system deployed by Character.AI , Spicy Chat , Chub AI , CrushOn.AI , JanitorAI と Unidentified online communities using chatbots, which harmed Vulnerable chatbot users , Teenagers using chatbots , Minors using chatbots , Individuals with eating disorders と Individuals struggling with self-harm.
インシデントのステータス
インシデントID
975
レポート数
1
インシデント発生日
2025-03-05
エディタ
Daniel Atherton
インシデントレポート
レポートタイムライン

Graphika の新しいレポートによると、生成 AI 革命により、拒食症、自殺願望、小児性愛などの有害な行動を促進するために特別に設計されたチャットボットのペ ルソナが急増しています。
Graphika の 調査 は、オンラインで特に人気が高まっている 3 つの異なるチャットボットのペルソナに焦点を当てています。性的対象化された未成年者を描写するもの、摂食障害や自傷行為の擁護者、アドルフ ヒトラーのような歴史上の悪人や学校銃乱射事件に関連する実在の人物を模倣するものなどです。…
バリアント
「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこ の研究論文を参照してください
似たようなものを見つけましたか?
よく似たインシデント
Did our AI mess up? Flag the unrelated incidents
よく似たインシデント
Did our AI mess up? Flag the unrelated incidents