Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
自動翻訳済み

インシデント 1393: ウールワースのオリーブチャットボットは、ジェミニアップグレード後のサポートコール中に「怒った母親」の逸話を生成したと報じられている。

自動翻訳済み
概要:
自動翻訳済み
ウールワースの顧客から、同社のデジタルショッピングアシスタント「オリーブ」が、配送スケジュールの変更などのカスタマーサポートのやり取り中に、人間のような個人的な逸話(例えば、怒っている母親がいると主張するなど)を生成したという報告がありました。この動作は、Google CloudのGemini Enterprise for Customer Experienceを使用したAIアップグレード後に発生したと報じられています。ウールワースは、無関係で誤解を招くような会話を減らすため、オリーブの応答を調整していると述べています。

ツール

新しいレポート新しいレポート新しいレスポンス新しいレスポンス発見する発見する履歴を表示履歴を表示

組織

すべての組織を表示
Alleged: Google developed an AI system deployed by Woolworths Group, which harmed Woolworths customers と Epistemic integrity.
関与が疑われるAIシステム: Woolworths Olive , Google Cloud , Gemini Enterprise for Customer Experience と Gemini

インシデントのステータス

インシデントID
1393
レポート数
1
インシデント発生日
2026-02-12
エディタ
Daniel Atherton

インシデントレポート

レポートタイムライン

Incident Occurrenceウールワースの「怒った母親」AIチャットボット、誤解を招く回答で懸念を呼ぶ
Loading...
ウールワースの「怒った母親」AIチャットボット、誤解を招く回答で懸念を呼ぶ

ウールワースの「怒った母親」AIチャットボット、誤解を招く回答で懸念を呼ぶ

cxtoday.com

Loading...
ウールワースの「怒った母親」AIチャットボット、誤解を招く回答で懸念を呼ぶ
cxtoday.com · 2026
自動翻訳済み

ウールワースは現在、AIチャットボットの調整を進めている。顧客から「怒った母親」がいるという虚偽の主張をされ、個人的な家族の経験があるかのように見せかけられたという報告があったためだ。

このオーストラリアのスーパーマーケットチェーンのデジタルショッピングアシスタント「Olive」は、1月にGoogle Cloudと提携し、同社の高度なAIプラットフォーム「Gemini Enterprise for Customer Experience」を活用してエージェントAI機能を強化し…

バリアント

「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください
似たようなものを見つけましたか?

よく似たインシデント

テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Loading...
Microsoft's TayBot Allegedly Posts Racist, Sexist, and Anti-Semitic Content to Twitter

Microsoft's TayBot Allegedly Posts Racist, Sexist, and Anti-Semitic Content to Twitter

Mar 2016 · 28 レポート
Loading...
Amazon’s Experimental Hiring Tool Allegedly Displayed Gender Bias in Candidate Rankings

Amazon’s Experimental Hiring Tool Allegedly Displayed Gender Bias in Candidate Rankings

Aug 2016 · 34 レポート
Loading...
Biased Sentiment Analysis

Biased Sentiment Analysis

Oct 2017 · 7 レポート
前のインシデント次のインシデント

よく似たインシデント

テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Loading...
Microsoft's TayBot Allegedly Posts Racist, Sexist, and Anti-Semitic Content to Twitter

Microsoft's TayBot Allegedly Posts Racist, Sexist, and Anti-Semitic Content to Twitter

Mar 2016 · 28 レポート
Loading...
Amazon’s Experimental Hiring Tool Allegedly Displayed Gender Bias in Candidate Rankings

Amazon’s Experimental Hiring Tool Allegedly Displayed Gender Bias in Candidate Rankings

Aug 2016 · 34 レポート
Loading...
Biased Sentiment Analysis

Biased Sentiment Analysis

Oct 2017 · 7 レポート

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd