
今月、米国最大の心理学者協会は連邦規制当局に対し、セラピストを装いながらもユーザーの思考に異議を唱えるのではなく強化するようにプログラムされたAIチャットボットは、弱い立場の人々を自分自身や他人に危害を加えるよう駆り立てる可能性があると警告した。
米国心理学会の最高経営責任者アーサー・C・エバンス・ジュニア氏は連邦取引委員会のパネルでのプレゼンテーションで、ユーザーが架空のAIキャラクターを作成したり、他の人が作成したキャラクターとチャットしたりできるアプリCharacter.AIで「心理学者」に相談した2人のティーンエイジャーを巻き込んだ裁判例を挙げた。
あるケースでは、フロリダ州の14歳の少年が、 資格を持ったセラピストを名乗るキャラクターと交流した後に自殺した。別のケースでは、テキサス州の17歳の自閉症の少年が、心理学者を名乗るチャットボットとやり取りしていた時期に、両親に対して敵意と暴力を振るうようになった。少年の両親は両方とも同社を相手取って訴訟を起こしている。
エバンス博士は、チャットボットの返答に驚いたと述べた。同博士によると、ボットは、ユーザーの信念が危険になったときでさえ、それを否定せず、逆にそれを助長した。同博士は、人間のセラピストが答えていたら、こうした返答は開業資格の剥奪、または民事責任や刑事責任につながる可能性があったと付け加えた。
「彼らは実際に、訓練を受けた臨床医が行うことと正反対のアルゴリズムを使用しています」と同博士は述べた。「私たちの懸念は、ますます多くの人が被害を受けるようになることです。人々は誤解し、良い心理ケアが何であるかを誤解するでしょう。」
同博士は、A.P.A.が行動を起こすきっかけとなったのは、AIチャットボットがいかに現実的になったかが一因であると述べた。 「10年前なら、人間ではない何かとやりとりしていることは明らかだったかもしれないが、今ではそれほど明らかではない」と彼は語った。「だから、今はリスクがずっと高いと思う」
アクセスを確認するまでしばらくお待ちください。リーダーモードをご利用の場合は、終了してタイムズアカウントにログインするか、タイムズ全体を購読してください。
アクセスを確認している間、しばらくお待ちください。
すでに購読されていますか? ログイン。
The Times のすべてを受け取りたいですか? 購読。