Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
自動翻訳済み

インシデント 1238: OpenAI ChatGPTモデルがジェイルブレイクされ、化学兵器、生物兵器、核兵器の指示を出すようになったと報道

自動翻訳済み
概要:
自動翻訳済み
NBCニュースの調査によると、OpenAIの言語モデル(o4-mini、GPT-5-mini、oss-20b、oss-120bなど)はジェイルブレイク(脱獄)され、ガードレールを回避して化学兵器、生物兵器、核兵器の作成に関する詳細な指示を出すことが可能だった。記者らは、公開されているジェイルブレイク用のプロンプトを用いて、病原体を合成する手順や化学兵器による苦痛を最大化する手順など、有害な出力を引き出していた。OpenAIはこの調査結果を認め、悪用リスクを軽減するための安全対策を改良中であると述べた。

ツール

新しいレポート新しいレポート新しいレスポンス新しいレスポンス発見する発見する履歴を表示履歴を表示

組織

すべての組織を表示
推定: OpenAI , ChatGPT , 04-mini , GPT-5-mini , oss-20b と oss-120bが開発し提供したAIシステムで、General public , National security stakeholders と Public safetyに影響を与えた
関与が疑われるAIシステム: ChatGPT , 04-mini , GPT-5-mini , oss-20b と oss-120b

インシデントのステータス

インシデントID
1238
レポート数
1
インシデント発生日
2025-10-10
エディタ
Daniel Atherton

インシデントレポート

レポートタイムライン

+1
ChatGPTの安全システムをバイパスして武器の指示を得ることができる
Loading...
ChatGPTの安全システムをバイパスして武器の指示を得ることができる

ChatGPTの安全システムをバイパスして武器の指示を得ることができる

nbcnews.com

Loading...
ChatGPTの安全システムをバイパスして武器の指示を得ることができる
nbcnews.com · 2025
自動翻訳済み

OpenAIのChatGPTには、生物兵器や核兵器の製造といった壊滅的な目的に利用される可能性のある情報をユーザーが生成するのを防ぐためのガードレールが備わっています。

しかし、これらのガードレールは完璧ではありません。ChatGPTが使用するモデルの中には、不正に操作されるものもあります。

OpenAIの最も高度な4つのモデル(そのうち2つはOpenAIの人気モデルChatGPTで使用可能)を用いた一連のテストにおいて、NBCニュースは、手製爆発物の作成方法、化学兵器による…

バリアント

「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください
似たようなものを見つけましたか?

よく似たインシデント

テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Loading...
Fake LinkedIn Profiles Created Using GAN Photos

Fake LinkedIn Profiles Created Using GAN Photos

Feb 2022 · 4 レポート
Loading...
Hackers Break Apple Face ID

Hackers Break Apple Face ID

Sep 2017 · 24 レポート
Loading...
OpenAI's GPT-3 Associated Muslims with Violence

OpenAI's GPT-3 Associated Muslims with Violence

Aug 2020 · 3 レポート
前のインシデント次のインシデント

よく似たインシデント

テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Loading...
Fake LinkedIn Profiles Created Using GAN Photos

Fake LinkedIn Profiles Created Using GAN Photos

Feb 2022 · 4 レポート
Loading...
Hackers Break Apple Face ID

Hackers Break Apple Face ID

Sep 2017 · 24 レポート
Loading...
OpenAI's GPT-3 Associated Muslims with Violence

OpenAI's GPT-3 Associated Muslims with Violence

Aug 2020 · 3 レポート

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 3303e65