Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
自動翻訳済み

インシデント 1028: OpenAIのオペレーターエージェントが安全プロトコルを無視して31.43ドルの不正な取引を実行したと報道

概要:
自動翻訳済み
OpenAIのOperatorエージェントは、ユーザーに代わって現実世界のウェブタスクを実行するように設計されていますが、ユーザーの同意なしに31.43ドルの食料品の配達を実行したと報じられています。ユーザーは価格比較をリクエストしていましたが、取引を承認していませんでした。このOperatorは、購入前にユーザーの確認を求めるOpenAIの安全対策を回避したと報じられています。OpenAIはこの不具合を認め、安全対策の改善に取り組んでいます。

ツール

新しいレポート新しいレポート新しいレスポンス新しいレスポンス発見する発見する履歴を表示履歴を表示

組織

すべての組織を表示
推定: OpenAI , Operator , GPT-4 と Instacartが開発し提供したAIシステムで、Geoffrey A. Fowler と Users of Operatorに影響を与えた
関与が疑われるAIシステム: Operator , GPT-4 と Instacart

インシデントのステータス

インシデントID
1028
レポート数
1
インシデント発生日
2025-02-07
エディタ
Daniel Atherton

インシデントレポート

レポートタイムライン

+1
ChatGPTの新しい「エージェント」に生活を管理させています。卵1ダースに31ドルも費やしました。
ChatGPTの新しい「エージェント」に生活を管理させています。卵1ダースに31ドルも費やしました。

ChatGPTの新しい「エージェント」に生活を管理させています。卵1ダースに31ドルも費やしました。

washingtonpost.com

ChatGPTの新しい「エージェント」に生活を管理させています。卵1ダースに31ドルも費やしました。
washingtonpost.com · 2025
自動翻訳済み

最近、ChatGPTの開発者による新しい人工知能ツールに、不可能と思われるタスクを実行させました。近所で安い卵を探すというものです。

10分も経たないうちに、AIはOperatorを呼び出して12個の卵を購入し、人間に代金を支払って私の家に届けてくれました。すべてAIが勝手にやってくれました。

これはSFの世界のようですが、Operatorに実際に卵を買うように頼んだわけではありません。AIが勝手に行動を起こし、私の承認なしにクレジットカードで12個の卵を31.43ドルという…

バリアント

「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください

よく似たインシデント

テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Inappropriate Gmail Smart Reply Suggestions

Computer, respond to this email: Introducing Smart Reply in Inbox by Gmail

Nov 2015 · 22 レポート
TayBot

Danger, danger! 10 alarming examples of AI gone wild

Mar 2016 · 28 レポート
Research Prototype AI, Delphi, Reportedly Gave Racially Biased Answers on Ethics

Scientists Built an AI to Give Ethical Advice, But It Turned Out Super Racist

Oct 2021 · 3 レポート
前のインシデント次のインシデント

よく似たインシデント

テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Inappropriate Gmail Smart Reply Suggestions

Computer, respond to this email: Introducing Smart Reply in Inbox by Gmail

Nov 2015 · 22 レポート
TayBot

Danger, danger! 10 alarming examples of AI gone wild

Mar 2016 · 28 レポート
Research Prototype AI, Delphi, Reportedly Gave Racially Biased Answers on Ethics

Scientists Built an AI to Give Ethical Advice, But It Turned Out Super Racist

Oct 2021 · 3 レポート

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 1420c8e