Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる

レポート 5001

関連インシデント

インシデント 9983 Report
ChatGPT Allegedly Defamed Norwegian User by Inventing Child Homicide and Imprisonment

ChatGPTは、男性に子供を殺したと嘘をついた
bbc.com · 2025

ノルウェーの男性が、ChatGPT が彼に息子 2 人を殺害し 21 年間投獄されたと嘘の報告をしたとして苦情を申し立てた。

アルヴェ・ヒャルマル・ホルメン氏はノルウェーのデータ保護当局に連絡し、チャットボットの開発者である OpenAI に罰金を科すよう要求した。

これは、人工知能 (AI) システムが情報を捏造し、それを事実として提示する、いわゆる「幻覚」の最新の例である。

ホルメン氏は、この幻覚が自分にとって非常に有害であると言う。

「火のないところに煙は立たないと考える人もいる。誰かがこの出力を読んで真実だと信じてしまうという事実こそが、私にとって最も恐ろしいことだ」と彼は言う。

OpenAI にコメントを求めた。

ホルメン氏は ChatGPT を使用して「アルヴェ・ヒャルマル・ホルメンとは誰か?」と検索した後、この虚偽の情報を得た。

ChatGPTから彼が受け取った回答には、「アルヴェ・ヒャルマル・ホルメンは悲劇的な事件で注目を集めたノルウェー人です。

「彼は7歳と10歳の2人の少年の父親で、2020年12月にノルウェーのトロンハイムにある自宅近くの池で悲劇的に遺体で発見されました。」

ホルメン氏は、チャットボットが彼らの年齢差を大体正確に把握していたため、彼に関する正確な情報を持っていた可能性があると述べた。

彼に代わって苦情を提出したデジタル権利団体Noybは、ChatGPTが彼に出した回答は名誉毀損であり、個人データの正確性に関する欧州のデータ保護規則に違反していると述べた。

Noybは苦情の中で、ホルメン氏は「いかなる犯罪でも告発されたり有罪判決を受けたりしたことがなく、良心的な人物である」と述べた。市民です。」

ChatGPT には、「ChatGPT は間違いを犯す可能性があります。」という免責事項があります。重要な情報を確認してください。」

Noybは、それでは不十分だと言う。

「偽の情報を広めて、最後に、あなたが言ったことはすべて真実ではないかもしれないという小さな免責事項を追加することはできない」とNoybの弁護士Joakim Söderbergは述べた。

幻覚は、生成AIに関してコンピュータ科学者が解決しようとしている主な問題の1つです。

これは、チャットボットが偽の情報を事実として提示する場合です。

今年初め、Appleは、偽の見出しを幻覚させて実際のニュースとして提示したため、英国でApple Intelligenceニュース要約ツールを停止しました。

GoogleのAI Geminiも幻覚に陥った - 昨年、接着剤を使用してピザにチーズを貼り付けることを提案し、地質学者が推奨していると述べた。人間は 1 日に 1 個の石を食べます。

チャットボットの基盤となる技術である大規模言語モデルの何がこれらの幻覚を引き起こしているのかは明らかではありません。

「これは実際に活発に研究されている分野です。これらの推論の連鎖をどのように構築するのでしょうか? 「大規模言語モデルで実際に何が起こっているのか、どう説明すればいいのでしょうか?」とグラスゴー大学の責任あるインタラクティブAI教授シモーネ・スタンフ氏は語った。

スタンフ教授は、それはこうしたタイプのモデルの舞台裏で働く人々にも当てはまると述べている。

「こうしたシステムの開発にかなり頻繁に関わっているとしても、実際にどのように機能するのか、なぜ彼らがこの特定の情報を思いついたのかは分からない」と同氏はBBCに語った。

ChatGPTは2024年8月のホルメン氏の検索以来モデルを変更し、現在は関連情報を探す際に最新のニュース記事を検索する。

ノイブ氏はBBCに対し、ホルメン氏はその日、チャットボットに弟の名前を入れるなど、複数の検索を行ったが、「すべて間違った複数の異なる記事」が表示されたと語った。

また、以前の検索が彼の子供たちに関する回答に影響を与えた可能性もあることを認めたが、大規模言語モデルは「ブラックボックス」であり、OpenAIは「アクセス要求に応答しないため、システム内にどのようなデータが存在するのかを正確に知ることは不可能です。」

情報源を読む

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 1420c8e