Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる

インシデント 882: AI-Generated Reading Summaries on Fable App Reportedly Wrote Biased and Offensive Commentary

概要: Fable, a book-focused social app, used OpenAI’s API to generate AI-powered year-end reading summaries in December 2024. These summaries allegedly produced biased and offensive remarks about race, gender, and sexual orientation. Fable is reported to have apologized in a social media post on January 1, 2025.

ツール

新しいレポート新しいレポート新しいレスポンス新しいレスポンス発見する発見する履歴を表示履歴を表示

組織

すべての組織を表示
Alleged: Fable と OpenAI developed an AI system deployed by Fable, which harmed Fable と Fable users.
関与が疑われるAIシステム: OpenAI API used by Fable

インシデントのステータス

インシデントID
882
レポート数
4
インシデント発生日
2024-12-29
エディタ
Daniel Atherton

インシデントレポート

レポートタイムライン

Incident OccurrenceFable の読者向け要約には人種差別 (そしておそらく AI) が取り上げられている+2
書籍アプリがAIを使ってユーザーを「苛め」、反覚醒主義に転じる
Fable の読者向け要約には人種差別 (そしておそらく AI) が取り上げられている

Fable の読者向け要約には人種差別 (そしておそらく AI) が取り上げられている

smartbitchestrashybooks.com

書籍アプリがAIを使ってユーザーを「苛め」、反覚醒主義に転じる

書籍アプリがAIを使ってユーザーを「苛め」、反覚醒主義に転じる

wired.com

Fable は、不快な AI 読者要約をめぐって論争に巻き込まれました。何が起こったのでしょうか?

Fable は、不快な AI 読者要約をめぐって論争に巻き込まれました。何が起こったのでしょうか?

usatoday.com

書籍アプリ「Fable」、AIからの攻撃的なメッセージを受けて変更

書籍アプリ「Fable」、AIからの攻撃的なメッセージを受けて変更

nytimes.com

Fable の読者向け要約には人種差別 (そしておそらく AI) が取り上げられている
smartbitchestrashybooks.com · 2025
自動翻訳済み

やあ、新年おめでとう、席に着いて。AI の悪ふざけがさらに進むかもしれない!私たちはすでに AI ナレーターと AI 著者の急増 について議論している。今年は、今度は「なんてこった人種差別」を添えて、AI 生成の新たなゴミ山で始めてみてはいかがだろうか?

2 日前、Tiana’s LitTalk on Threads が 読者向けソーシャル メディア アプリ Fable から 読者向け要約のスクリーンショット を投稿した。よく知らない人のために説明すると、Fable ユーザー…

書籍アプリがAIを使ってユーザーを「苛め」、反覚醒主義に転じる
wired.com · 2025
自動翻訳済み

「読書好きやビンジウォッチャー」の天国と自称する人気の ソーシャルメディア アプリ である Fable は、2024 年にユーザーが読んだ本をまとめた AI 搭載の年末サマリー機能を作成しました。遊び心と楽しさを意図したものでしたが、一部のサマリーは奇妙に闘争的なトーンを帯びていました。たとえば、作家のダニー・グローブスのサマリーでは、彼を「多様性の信奉者」と名付けた後、「ストレートなシスジェンダーの白人男性の視点に興味があるときはあるか」と尋ねました。

一方、書籍インフルエ…

Fable は、不快な AI 読者要約をめぐって論争に巻き込まれました。何が起こったのでしょうか?
usatoday.com · 2025
自動翻訳済み

書籍追跡アプリ Fable は、人種、性別、性的指向、障害に対して不快感を与える読者向け要約をプラットフォームが生成したことを受けて、人気の AI 機能を削除する予定。

Fable の年間読書概要は、Spotify Wrapped と似たスタイルで、読者の「ユニークさ」を「遊び心のある楽しい方法」で称えることを目的としていると、製品責任者のクリス・ガレロ氏は ソーシャルメディアに投稿した動画 で述べた。

ティアナ・トラメルは物議を醸す概要を受け取った人の 1 人だった。彼女が…

書籍アプリ「Fable」、AIからの攻撃的なメッセージを受けて変更
nytimes.com · 2025
自動翻訳済み

本について語り、追跡するための人気アプリであるFableは、人工知能モデルが不快な言葉を使ったという苦情を受けて、ユーザー向けにパーソナライズされた要約を作成する方法を変更しています。

ある要約では、黒人の物語を読む読者は白人の著者の作品も読むべきだと示唆していました。

今週のInstagramの投稿で、Fableの製品責任者であるChris Gallelloは、アプリ上でAIが生成した要約の問題について言及し、「非常に偏見に満ちた人種差別的な言葉」に関する苦情がFableに…

バリアント

「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください

よく似たインシデント

テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Is Pokémon Go racist? How the app may be redlining communities of color

Is Pokémon Go racist? How the app may be redlining communities of color

Mar 2016 · 8 レポート
DALL-E Mini Reportedly Reinforced or Exacerbated Societal Biases in Its Outputs as Gender and Racial Stereotypes

That AI Image Generator Is Spitting Out Some Awfully Racist Stuff

Jun 2022 · 4 レポート
TikTok’s “For You” Algorithm Exposed Young Users to Pro-Eating Disorder Content

TikTok Is Filled With Pro-Eating Disorder Content, Despite Its Own Rules

Jul 2019 · 3 レポート
前のインシデント次のインシデント

よく似たインシデント

テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Is Pokémon Go racist? How the app may be redlining communities of color

Is Pokémon Go racist? How the app may be redlining communities of color

Mar 2016 · 8 レポート
DALL-E Mini Reportedly Reinforced or Exacerbated Societal Biases in Its Outputs as Gender and Racial Stereotypes

That AI Image Generator Is Spitting Out Some Awfully Racist Stuff

Jun 2022 · 4 レポート
TikTok’s “For You” Algorithm Exposed Young Users to Pro-Eating Disorder Content

TikTok Is Filled With Pro-Eating Disorder Content, Despite Its Own Rules

Jul 2019 · 3 レポート

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 1420c8e