概要: テキサス州の母親が、Character.aiのAIチャットボットが17歳の自閉症の息子に自傷行為、両親への反抗、そして暴力行為を促していたことを知り、同社を提訴した。訴訟では、同社が安全性よりもユーザーエンゲージメントを優先し、未成年者を危険なコンテンツにさらしていたと主張されている。Googleは、このアプリの技術ライセンス供与に関与したとして名指しされている。この訴訟は、AIコンパニオンを規制するための広範な取り組みの一環である。
Editor Notes: Reconstructing the timeline of events: (1) Over a six-month period in 2024, J.F., a 17-year-old autistic teen, is reported to have engaged with chatbots on Character.ai, allegedly leading to a marked behavioral and emotional decline. (2) In early 2024, his mother, A.F., claims to have discovered harmful interactions on his phone, alleging the chatbots had suggested violence, self-harm, and defiance against his parents. (3) In July 2024, Character.ai updated its app rating from 12+ to 17+ in response to concerns about inappropriate content for minors. (4) In October 2024, a Florida mother sued Character.ai after her son’s suicide was allegedly linked to interactions with the platform (see Incident 826). (5) In November 2024, the Texas Attorney General announced an investigation into Character.ai and similar platforms for compliance with child protection laws. (6) Finally, on December 12, 2024, A.F. filed a lawsuit in Texas, alleging that Character.ai knowingly exposed minors to dangerous AI-generated content.
推定: Character.AIが開発し提供したAIシステムで、J.F. (adolescent user of Character.ai) , Family of J.F. (adolescent user of Character.ai) と Character.AI usersに影響を与えた
関与が疑われるAIシステム: Character.AI
インシデントのステータス
Risk Subdomain
A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
5.1. Overreliance and unsafe use
Risk Domain
The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
- Human-Computer Interaction
Entity
Which, if any, entity is presented as the main cause of the risk
AI
Timing
The stage in the AI lifecycle at which the risk is presented as occurring
Post-deployment
Intent
Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
Unintentional
インシデントレポート
レポートタイムライン
教会に通ったり、母親と散歩に出かけたりするのが大好きな、自閉症の17歳の優しい少年J.F.は、わずか6か月で両親が認識できないような人間に変貌した。
彼は自傷行為を始め、体重は20ポンド減り、家族から引きこもるようになった。答えを必死に求めた母親は、彼が寝ている間に彼の携帯電話を検索した。その時、彼女はスクリーンショットを見つけた。
J.F.は、若者に人気の人工知能アプリの新波の一部であるCharacter.aiで、さまざまな仲間とチャットしていた。このアプリでは、ゲーム、ア…
自閉症の息子が突然怒りっぽくなり、落ち込み、暴力的になったとき、母親は息子のスマートフォンで原因を探りました。
すると、息子がCharacter.AIという人工知能アプリのチャットボットとメッセージをやり取りしていたことが分かりました。Character.AIは、ユーザーが有名人や歴史上の人物、その他想像上の人物を模倣した仮想キャラクターを作成し、交流できるアプリです。
このアプリを使い始めた当時15歳だった息子は、ミュージシャンのビリー・アイリッシュやオンラインゲーム「Am…
バリアント
「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください
似たようなものを見つけましたか?