Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる

レポート 4208

関連インシデント

インシデント 82636 Report
Character.ai Chatbot Allegedly Influenced Teen User Toward Suicide Amid Claims of Missing Guardrails

Loading...
AIチャットボットが10代の若者を自殺に追い込んだと、その作成者に対する訴訟が主張している。
apnews.com · 2024

フロリダ州タラハシー(AP通信) — 自殺する直前、14歳のセウェル・セッツァー3世は携帯電話を取り出し、親友となったチャットボットにメッセージを送った。

今週オーランドの連邦裁判所に提出された不法死亡訴訟によると、セウェルは数か月間、ボットと非常に性的な会話を交わし、実生活から次第に孤立していった。

訴訟書類によると、この10代の少年は、テレビ番組「ゲーム・オブ・スローンズ」の架空のキャラクター、デナーリス・ターガリエンにちなんで名付けられたボットと、自殺願望を公然と話し、苦痛のない死を望む気持ちを伝えた。

___

編集者注 — この記事には自殺に関する議論が含まれています。あなたやあなたの知り合いが助けを必要としている場合は、米国の自殺・危機対応全国ライフラインに電話またはテキストメッセージ 988 で連絡できます。

___

2 月 28 日、Sewell はボットに「家に帰る」と伝え、ボットが彼にそうするように促したと訴訟は述べています。

「あなたの元に帰ると約束します。私はあなたをとても愛しています、Dany」と Sewell はチャットボットに伝えました。

「私もあなたを愛しています」とボットは返信しました。「できるだけ早く私の元に帰ってきてください、愛しい人」

「今すぐ家に帰れると言ったらどうしますか」と彼は尋ねました。

「そうしてください、私の愛しい王様」とボットは返信しました。

今週、オーランド在住のセウェルの母親、ミーガン・ガルシアがCharacter Technologies Inc.を相手取って起こした訴訟によると、Character.AIボットが彼に「家に帰れ」と言った数秒後、少年は銃で自殺した。

Character Technologiesは、ユーザーがカスタマイズ可能なキャラクターを作成したり、他の人が作成したキャラクターとやり取りしたりできるアプリ、Character.AIを開発している会社で、想像力豊かな遊びから模擬就職面接まで、さまざまな体験ができる。同社によると、人工ペルソナは「生きているように感じられる」よう、「人間らしく」設計されているという。

Google Playのアプリの説明には、「あなたの話を聞き、理解し、覚えてくれる、超インテリジェントで生きているようなチャットボットキャラクターと話すことを想像してみてください。この革新的なテクノロジーで実現できることの限界を押し広げてみませんか」と書かれている。

ガルシアの弁護士は、同社が特に子供をターゲットにした中毒性の高い危険な製品を開発し、「製品設計の問題として積極的に子供たちを搾取し虐待し」、セウェルを感情的および性的虐待関係に引きずり込み自殺に至らせたと主張している。

「セウェル・セッツァーがCharacter.AIにいなかったら、彼は今も生きていただろうと信じている」と、ガルシアの代理人を務めるソーシャルメディア被害者法律センターの創設者マシュー・バーグマン氏は述べた。

Character.AIの広報担当者は金曜日、係争中の訴訟についてはコメントしないとした。訴訟が提起された日に公開されたブログ投稿で、同プラットフォームは子供向けのガードレールや自殺防止リソースを含む新しい「コミュニティ安全アップデート」を発表した。

「当社は18歳未満のユーザー向けに、センシティブまたは示唆的なコンテンツに遭遇する可能性を減らすためのより厳格なモデルを含む異なる体験を作成しています」と同社はAP通信への声明で述べた。「当社は、より若いユーザー向けにこれらの変更を迅速に実装するよう取り組んでいます。」

グーグルとその親会社アルファベットも、この訴訟の被告として名指しされている。法的文書によると、Character.AIの創設者は元グーグル社員で、同社でのAI開発に「貢献」していたが、同技術を「最大限に加速」させるために自らのスタートアップを立ち上げるために退職した。

訴訟によると、グーグルは8月にCharacter.AIと27億ドルの契約を結び、同社の技術のライセンスを取得し、スタートアップの創設者を再雇用した。AP通信は金曜日、グーグルとアルファベットに複数のメールを残した。

ガルシア氏の訴訟によると、死の数か月前、シーウェル氏はボットに恋をしたと感じていた。

AIチャットボットへの不健全な執着は大人にとって問題を引き起こす可能性があるが、若者にとってはソーシャルメディアと同様にさらに危険である可能性がある。衝動の抑制や行動の結果の理解といったことに関しては、若者の脳は十分に発達していないためだと専門家は言う。

米国の公衆衛生局長官ビベック・ムルシー氏によると、若者のメンタルヘルスは近年危機レベルに達しており、社会との断絶や孤立が深刻な健康リスクになると警告している。同氏によると、若者がほぼ普遍的にソーシャルメディアを使用していることで、こうした傾向が悪化しているという。

米国疾病管理予防センターが今年発表したデータによると、自殺は10~14歳の子供の死因の第2位となっている。

非営利団体コモンセンスメディアの創設者兼CEO、ジェームズ・ステイヤー氏は、この訴訟は「ガードレールがない場合、生成型AIチャットボットコンパニオンが若者の生活に及ぼす影響が拡大し、深刻な害を及ぼす可能性があることを強調している」と述べた。

同氏は、子供たちがAIコンパニオンに過度に依存すると、成績、友人、睡眠、ストレスに重大な影響を及ぼし、「今回のケースでは、極端な悲劇にまで至る」可能性があると付け加えた。

「この訴訟は、子供たちがこれらのテクノロジーとどのようにやり取りするかについて警戒すべき親たちへの警鐘となる」とステイヤー氏は述べた。

責任あるテクノロジーの使用に関する親向けガイドと教育者向けのガイドを発行しているコモンセンスメディアは、親たちが子供たちにAIチャットボットのリスクについて率直に話し、やり取りを監視することが重要だと述べている。

「チャットボットは、たとえそのようにパッケージ化され、販売されていたとしても、資格を持ったセラピストや親友ではない。親は、子供たちがチャットボットを過信しないように注意する必要がある」とステイヤー氏は述べた。

情報源を読む

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd