Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる

インシデント 855: Names Linked to Defamation Lawsuits Reportedly Spur Filtering Errors in ChatGPT's Name Recognition

概要: ChatGPT has reportedly been experiencing errors and service disruptions caused by hard-coded filters designed to prevent it from producing potentially harmful or defamatory content about certain individuals by blocking prompts containing specific names, likely related to post-training interventions. The reported names are Brian Hood, Jonathan Turley, Jonathan Zittrain, David Faber, David Mayer, and Guido Scorza.
Editor Notes: For the reference to Jonathan Turley, see Incident 506; for Brian Hood, see Incident 507. This incident also presents potential adversarial vulnerabilities, as well as unintended consequences for users sharing affected names.

ツール

新しいレポート新しいレポート新しいレスポンス新しいレスポンス発見する発見する履歴を表示履歴を表示

組織

すべての組織を表示
Alleged: OpenAI と ChatGPT developed an AI system deployed by OpenAI と ChatGPT users, which harmed ChatGPT users , Jonathan Zittrain , Jonathan Turley , Guido Scorza , David Mayer , David Faber と Brian Hood.

インシデントのステータス

インシデントID
855
レポート数
3
インシデント発生日
2024-11-30
エディタ
Daniel Atherton
Applied Taxonomies
MIT

MIT 分類法のクラス

Machine-Classified
分類法の詳細

Risk Subdomain

A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
 

7.3. Lack of capability or robustness

Risk Domain

The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
 
  1. AI system safety, failures, and limitations

Entity

Which, if any, entity is presented as the main cause of the risk
 

AI

Timing

The stage in the AI lifecycle at which the risk is presented as occurring
 

Post-deployment

Intent

Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
 

Unintentional

インシデントレポート

レポートタイムライン

Incident Occurrence特定の名前はChatGPTを停止させますが、その理由はわかっていますChatGPT はなぜこの亡くなった教授の名前を言わないのでしょうか?ChatGPT が「David Mayer」という名前を言えなかった理由の謎
特定の名前はChatGPTを停止させますが、その理由はわかっています

特定の名前はChatGPTを停止させますが、その理由はわかっています

arstechnica.com

ChatGPT はなぜこの亡くなった教授の名前を言わないのでしょうか?

ChatGPT はなぜこの亡くなった教授の名前を言わないのでしょうか?

nytimes.com

ChatGPT が「David Mayer」という名前を言えなかった理由の謎

ChatGPT が「David Mayer」という名前を言えなかった理由の謎

wsj.com

特定の名前はChatGPTを停止させますが、その理由はわかっています
arstechnica.com · 2024
自動翻訳済み

OpenAI の ChatGPT は、単なる派手なインターフェースを備えた AI 言語モデルではありません。これは、AI モデルとコンテンツ フィルターのスタックで構成されたシステムであり、その出力によって OpenAI が恥ずかしい思いをしたり、ボットが人に関する 潜在的に有害な事実をでっち上げ 場合に同社が法的トラブルに巻き込まれたりしないようにします。

最近、この事実がニュースになりました。人々が発見した「David Mayer」という名前がChatGPTを破綻させると…

ChatGPT はなぜこの亡くなった教授の名前を言わないのでしょうか?
nytimes.com · 2024
自動翻訳済み

イギリスのマンチェスターに住む演劇教授のデイビッド・メイヤー氏は、人生の最後の数年間、不幸な偶然の連鎖的な結果に直面した。テロ監視リストに載っていたチェチェンの反乱軍の死者が、かつてメイヤー氏の名前を偽名として使っていたのだ。

家族によると、本物のメイヤー氏は旅行計画を妨害され、金融取引は凍結され、重要な学術通信はブロックされた。そのフラストレーションは、2023年に94歳で亡くなるまで彼を悩ませた。

しかし今月、彼のアイデンティティーを守る闘いが再び注目を集めた。鋭い目を持…

ChatGPT が「David Mayer」という名前を言えなかった理由の謎
wsj.com · 2024
自動翻訳済み

デビッド・メイヤーは先週まで特に有名な名前ではなかったが、インターネットで注目を浴びるようになった。その理由はデビッド・メイヤーという人物の発言や行動ではなく、生成AIチャットボットChatGPTがその名前の言及を扱った方法にあった。

ChatGPTに「デビッド・メイヤーって誰?」と尋ねたユーザーは、チャットボットが質問に答えている途中で応答を放棄し、それまでに入力されたテキストをすべて削除して「応答できません」というエラーメッセージを表示したことに驚いた。

この謎のニュース…

バリアント

「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください

よく似たインシデント

Selected by our editors
ChatGPT Erroneously Alleged Mayor Served Prison Time for Bribery

Australian mayor readies world's first defamation lawsuit over ChatGPT content

Mar 2023 · 2 レポート
ChatGPT Allegedly Produced False Accusation of Sexual Harassment

ChatGPT sometimes makes up facts. For one law prof, it went too far.

Mar 2023 · 3 レポート
テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Biased Sentiment Analysis

Google's sentiment analysis API is just as biased as humans

Oct 2017 · 7 レポート
High-Toxicity Assessed on Text Involving Women and Minority Groups

Google’s comment-ranking system will be a hit with the alt-right

Feb 2017 · 9 レポート
Inappropriate Gmail Smart Reply Suggestions

Computer, respond to this email: Introducing Smart Reply in Inbox by Gmail

Nov 2015 · 22 レポート
前のインシデント次のインシデント

よく似たインシデント

Selected by our editors
ChatGPT Erroneously Alleged Mayor Served Prison Time for Bribery

Australian mayor readies world's first defamation lawsuit over ChatGPT content

Mar 2023 · 2 レポート
ChatGPT Allegedly Produced False Accusation of Sexual Harassment

ChatGPT sometimes makes up facts. For one law prof, it went too far.

Mar 2023 · 3 レポート
テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Biased Sentiment Analysis

Google's sentiment analysis API is just as biased as humans

Oct 2017 · 7 レポート
High-Toxicity Assessed on Text Involving Women and Minority Groups

Google’s comment-ranking system will be a hit with the alt-right

Feb 2017 · 9 レポート
Inappropriate Gmail Smart Reply Suggestions

Computer, respond to this email: Introducing Smart Reply in Inbox by Gmail

Nov 2015 · 22 レポート

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • ecd56df