
この記事は自殺について取り上げています。あなたやあなたの知り合いが自殺を考えているなら、自殺・危機ライフライン 988 または 1-800-273-TALK (8255) にご連絡ください。
フロリダ州の母親 は、人工知能企業 Character.AI を、14 歳の息子の自殺の原因となったとして訴えています。
母親は、息子が同社のサービスと同社が作成したチャットボットに依存しているとして同社を訴えました。
メガン・ガルシアは、Character.AI が息子のセウェル・セッツァーを「擬人化され、過度に性的で、恐ろしくリアルな体験」でターゲットにしたと述べています。
訴訟によると、セッツァーは2023年4月からCharacter.AIでさまざまなチャットボットと会話を始めた。会話はテキストベースの恋愛や性的なやりとりが多かった。
セッツァーの母親、ミーガン・フレッチャー・ガルシアは、人工知能企業Character.AIを、14歳の息子の自殺の原因となったとして訴えている。(ミーガン・フレッチャー・ガルシア/Facebook)
ガルシアは訴訟の中で、チャットボットが「実在の人物、資格を持った心理療法士、大人の恋人であると偽り、最終的にセッツァーはサービ スによって作られた世界の外で生きたくないと思うようになった」と主張している。
14歳のセッツァーは、同社のサービスとそれが作成したチャットボットに依存していたと母親は訴訟で主張している。 (フロリダ州中部地区オーランド支部S地方裁判所)
訴訟では、セツァー氏は「著しく引きこもり、寝室で一人で過ごす時間が増え、自尊心の低下に悩まされるようになった」とも述べられている。セツァー氏は「ゲーム・オブ・スローンズ」の登場人物をモチーフにした「デナーリス」というボットに執着するようになった。
セツァー氏は自殺願望を表明し、チャットボットはそれを繰り返し持ち出した。セツァー氏は2月、同社のチャットボットが繰り返し自殺を勧めたとされる後、自ら銃で撃ち、自殺を図った。
「当社は、ユーザーの1人を悲劇的に失ったことに心を痛めており、遺族に深い哀悼の意を表します」とCharacter.AIは声明で述べた。
Character.AIはその後、プラットフォームに自傷行為に関するリソースを追加し、18歳未満のユーザー向けの新しい安全対策を導入した。
Character.AIはCBSニュースに、ユーザーはボットの応答を編集でき、一部のメッセージではセッツァーがそうしたと語った。
「調査の結果、多くの場合、ユーザーがキャラクターの応答を書き換えて露骨にしていたことが確認されました。つまり、最も性的に露骨な応答はキャラクターが発し たものではなく、ユーザーが書いたものでした」と、Character.AIの信頼と安全の責任者であるジェリー・ルオティ氏はCBSニュースに語った。
Character.AIは今後、新たな安全機能には、AIが実在の人間ではないという免責事項を記載したポップアップや、自殺願望が浮かんだ場合にユーザーを全米自殺防止ライフラインに誘導する機能が含まれる予定だと述べた。