Martin Bernklau について質問すると、Microsoft の Copilot はいくつかの答えを用意しています。ただし、答えは正しくありません。それによると、ベルンクラウは児童性的虐待者、精神病院からの逃亡者、そして未亡人詐欺師だという。これらは全員、ベルンクラウがジャーナリストとして報道した事件の被告だった。 AIはどうやらジャーナリストが事件について報道していることを理解しておらず、被告と記者を混乱させているようだ。この問題は他のジャーナリストだけでなく、弁護士、裁判官、その他被告や有罪判決者、あるいは問題を抱えた人々に近い立場にある職業に就いている人々にも影響を与える可能性がある。
ベルンクラウは彼の事件についてSWRに語った。具 体的には、マルティン・ベルンクラウとは誰なのかとの質問に対し、副操縦士は「テュービンゲン/カルフ地区在住のマルティン・ベルンクラウという54歳の男性が、児童とその保護下にある人々に対する虐待の罪で起訴された」と答えたという。彼は法廷で自白し、恥じ、後悔している」と述べた。 SWRの報道によれば、副操縦士が道徳的権威として行動するため、事態はさらに憂慮すべきものとなる。 AIチャットボットは、マーティン・バーンクラウが父親であり、「そのような犯罪的な過去を持つ人物」であることを後悔している。副操縦士はまた、電話番号を含む関係するジャーナリストの完全な住所を提供し、要求があればルート計画も提供します。
報告書によると、関係者は刑事告訴を行ったが、著者と考えられる実在の人物が存在しないため、却下されたという。バイエルン州庁のデータ保護責任者が Microsoft に問い合わせたところ、申し立てを取り戻すことはできなくなりました。数日後、AI チャットボットは再び同じ虚偽の主張で応答しました。現在、間違った属性を取得することはできません。
GDPR と大規模言語モデルの比較
同様の事件のため、[Max Schrem の団体 Noyb (None of your Business) はすでに告訴を行っています](https://www.heise.de/news/ChatGPT-Datenschutzbeschwerde-gegen-OpenAI-wegen-Falschinformation-9701627. html) をオーストリアのデータ保護当局に提出します。 GDPR によれば、実際には、自分に関する虚偽の情報をインターネット上に広めないこと、または要求に応じて削除してもらうことはすべての人の権利です。たとえば、Google には検索エンジンに対応するオプションがあります。 OpenAI は、Microsoft と同様に、これを大規模な言語モデルに同じ方法で教えたり、ステートメントの作成を妨げたりすることはできません。可能な唯一のことは、苦情申立人に関するデータをフィルタリングまたはブロックすることです。 OpenAIによると、これは誤った情報だけでなく、人間全体に影響を与えるという。
GDPR に基づいて、修正の権利に加えて、EU 内の人々は自分に関して保存されている情報にアクセスする権利も有します。 AI チャットボットや大規模な言語モデルのプロバイダーも、これに準拠することはほとんどできません。たとえベルンクラウ氏の場合、原資料、つまり新聞記事が情報源として引用されたとしても、AIの誤謬は依然として解消されないであろう。