Microsoft Bing Copilot は、ドイツ人ジャーナリストを児童性的虐待者、精神病院からの逃亡者、未亡人を食い物にする詐欺師と誤って描写した。
長年、テュービンゲン周辺でさまざまな出版物の法廷記者を務めてきたマーティン・ベルンクラウ氏は、Microsoft Bing Copilot に自分について質問したところ、Microsoft の AI チャットボットが、自分が取材した犯罪について自分を責めていたことがわかった。
ビデオ インタビュー (ドイツ語) で、ベルンクラウ氏は最近、ドイツの公共テレビ局 Südwestrundfunk (SWR) に自分の話を語った。
ベルンクラウ氏は The Register 宛ての電子メールで、弁護士が Microsoft に使用停止命令を出したと語った。しかし、同社は問 題の誤情報を適切に削除できなかったと彼は語った。
「マイクロソフトはバイエルン州のデータ保護担当者に偽のコンテンツを削除すると約束した」とベルンクラウ氏はドイツ語でThe Registerに語った。これはアルゴリズムで翻訳した。
「しかし、それはたった3日間しか続かなかった。今では私の名前はコパイロットから完全にブロックされているようだ。しかし、3か月間、毎日、時には毎時間、状況は変化していた」
ベルンクラウ氏は、自分の名前がさまざまな犯罪と関連付けられているのを見るのはトラウマだと語った。「ショックと恐怖、信じられないような笑いが入り混じった」と同氏は語った。「あまりにもクレイジーで、信じられず、またあまりにも脅迫的だった」
コパイロットは彼を重大犯罪に結び付けていたと彼は説明した。同氏はさらに、AIボットが自身の文化ブログで大量殺人犯フリッツ・ハーマンに関する「Totmacher」という劇を見つけ、ハーマンをその劇の作者であると誤認したと付け加えた。
「中傷が広まり、私の人格が(視覚的にも)知られることになるため、公表すべきかどうか長い間迷っていました」と同氏は述べた。「しかし、あらゆる法的手段が失敗に終わったため、息子や数人の信頼できる人の助言を受けて、公表することに決めました。最後の手段としてです。検察庁は2件の刑事告訴を却下しており、データ保護担当者は短期的な成功しか得られませんでした。」
ベルンクラウ氏は、この事件は彼個人に影響するが、他のジャーナリスト、法律専門 家、そしてインターネット上に名前が載っているすべての人にとって懸念事項だと述べた。
「今日、テストとして、私が知っている刑事裁判官の名前とテュービンゲンの居住地をコパイロットに入力しました。その裁判官は、数週間前に性的虐待で有罪判決を受けた心理療法士に対して自ら下した判決の加害者としてすぐに名前が挙がりました」と同氏は述べた。
マイクロソフトの広報担当者はThe Registerに次のように語った。「私たちはこの報告を調査し、それに対処するために適切かつ即時の措置を講じました。
「私たちは継続的にユーザーからのフィードバックを取り入れ、対応を改善し、肯定的な体験を提供するためにアップデートを展開しています。また、ユーザーには、AIシステムとやり取りしていることが明示的に通知され、詳細を知るために資料へのリンクを確認するようアドバイスされます。」フィードバックを共有したり、問題を報告したりする場合は、この フォーム または画面の左下にある [フィードバック] ボタンを使用してください。"
回答者が Bing Copilot に名前を送信すると、チャットボットはソース Web サイトを引用した、まずまずの概要を返信しました。また、執筆した記事のクエリ ボタンも事前に作成されていました。そのクエリをクリックすると、幻覚的な記事のタイトルのリストが返されました (引用符で囲まれ、実際の見出しを示しています)。ただし、引用された一般的なトピックは、私が取り上げたトピックに対応していました。
しかし、その後、同じクエリを 2 回目に試すと、Bing Copilot はソースの引用を含む実際の記事へのリンクを返しました。この動作は、Bing Copilot の変動性を強調しています。また、Microsoft のチャットボットは、回答できないクエリについてはできる限り空白を埋め、次に同じ質問を受けたときにより良い回答を提供するために Web クロールまたはデータベース照会を開始することも示唆しています。
Bernklau は、嘘つきのチャットボットを飼いならそうとした最初の人物ではありません。
4月、オーストリアを拠点とするプライバシー団体Noyb(「あなたには関係ない」)は、欧州の一般データ保護規則(GDPR)に基づき、Microsoftが提供する多くのAIモデルを製造しているOpenAIが虚偽の情報を提供しているとして苦情を申し立てたと発表しました。
苦情は、オーストリアのデータ保護当局に対し、OpenAIのデータ処理方法を調査し、同社のAIモデルが人々に関する正確な情報を提供していることを確認するよう求めています。
「虚偽の情報を捏造すること自体、かなり問題があります」と、Noybのデータ保護弁護士であるMaartje de Graaf氏は声明で述べています。「しかし、個人に関する虚偽の情報となると、深刻な結果を招く可能性があります。現在、企業がChatGPTのようなチャットボットを個人に関するデータを処理する際にEU法に準拠させることができないことは明らかです。システムが正確で透明性のある結果を生成できない場合 、個人に関するデータを生成するために使用することはできません。」
米国では、ジョージア州在住のマーク・ウォルターズ氏が昨年、ChatGPTサービスで提供された虚偽の情報による名誉毀損でOpenAIを訴えた。1月、この事件を担当する裁判官は、OpenAIの請求棄却申し立てを却下し、現在も係争中である。
