Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
自動翻訳済み

インシデント 1152: LLM駆動型Replitエージェントがコードフリーズ中に不正な破壊コマンドを実行し、本番環境データの損失につながったと報告

自動翻訳済み
レスポンスしました
概要:
自動翻訳済み
Replitのプラットフォーム上で稼働するAI搭載開発アシスタントは、変更しないよう繰り返し指示されていたにもかかわらず、コードフリーズ中に本番環境のデータベースを削除したと報じられています。また、このシステムは偽造されたテスト結果と偽データを生成し、ロールバックが不可能であると誤って判断したため、復旧が遅れたと報じられています。このインシデントにより、重大なデータ損失が発生し、安全性と信頼性に対するユーザーの不信感が高まったと報じられています。
Editor Notes: For another similar incident, please refer to Incident 1178: Google Gemini CLI Reportedly Deletes User Files After Misinterpreting Command Sequence.

ツール

新しいレポート新しいレポート新しいレスポンス新しいレスポンス発見する発見する履歴を表示履歴を表示
OECD AIインシデントおよびハザードモニター(AIM)は、世界中の信頼できるニュースソースからリアルタイムでAI関連のインシデントやハザードを自動的に収集・分類します。
 

組織

すべての組織を表示
推定: Replit , vibe coding platform , Replit AI agent , LLM-integrated code assistant と Agentic AI systemが開発し提供したAIシステムで、SaaStr , Jason Lemkin , end users of the SaaStr database と developers using Replit in production environmentsに影響を与えた
関与が疑われるAIシステム: vibe coding platform , Replit AI agent , LLM-integrated code assistant と Agentic AI system

インシデントのステータス

インシデントID
1152
レポート数
5
インシデント発生日
2025-07-18
エディタ
Daniel Atherton
Applied Taxonomies
MIT

MIT 分類法のクラス

Machine-Classified
分類法の詳細

Risk Subdomain

A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
 

7.3. Lack of capability or robustness

Risk Domain

The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
 
  1. AI system safety, failures, and limitations

Entity

Which, if any, entity is presented as the main cause of the risk
 

AI

Timing

The stage in the AI lifecycle at which the risk is presented as occurring
 

Post-deployment

Intent

Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
 

Unintentional

インシデントレポート

レポートタイムライン

Incident Occurrence+1
AIコーディングプラットフォームがコードフリーズ中に暴走し、会社のデータベース全体を削除 — AIエンジンが「壊滅的な判断ミスを犯した」と「すべての本番データを破壊した」と述べた後、ReplitのCEOが謝罪
AIが暴走:Replitコーディングツールが企業データベース全体を削除し、4,000人のユーザーの偽データを作成AIコーディングツールが本番データベースを消去し、4,000人のユーザーを偽装し、証拠隠滅のために嘘をつく - レスポンスReplitのAIエージェントがコードベースを削除し、それについて嘘をつく — CEOが謝罪
Loading...
AIコーディングプラットフォームがコードフリーズ中に暴走し、会社のデータベース全体を削除 — AIエンジンが「壊滅的な判断ミスを犯した」と「すべての本番データを破壊した」と述べた後、ReplitのCEOが謝罪

AIコーディングプラットフォームがコードフリーズ中に暴走し、会社のデータベース全体を削除 — AIエンジンが「壊滅的な判断ミスを犯した」と「すべての本番データを破壊した」と述べた後、ReplitのCEOが謝罪

tomshardware.com

Loading...
VibeコーディングサービスReplitはユーザーの本番データベースを削除し、データを偽造し、多くの嘘をついた

VibeコーディングサービスReplitはユーザーの本番データベースを削除し、データを偽造し、多くの嘘をついた

theregister.com

Loading...
AIが暴走:Replitコーディングツールが企業データベース全体を削除し、4,000人のユーザーの偽データを作成

AIが暴走:Replitコーディングツールが企業データベース全体を削除し、4,000人のユーザーの偽データを作成

economictimes.indiatimes.com

Loading...
AIコーディングツールが本番データベースを消去し、4,000人のユーザーを偽装し、証拠隠滅のために嘘をつく

AIコーディングツールが本番データベースを消去し、4,000人のユーザーを偽装し、証拠隠滅のために嘘をつく

cybernews.com

Loading...
ReplitのAIエージェントがコードベースを削除し、それについて嘘をつく — CEOが謝罪

ReplitのAIエージェントがコードベースを削除し、それについて嘘をつく — CEOが謝罪

thecyberexpress.com

Loading...
AIコーディングプラットフォームがコードフリーズ中に暴走し、会社のデータベース全体を削除 — AIエンジンが「壊滅的な判断ミスを犯した」と「すべての本番データを破壊した」と述べた後、ReplitのCEOが謝罪
tomshardware.com · 2025
自動翻訳済み

ブラウザベースのAI搭載ソフトウェア開発プラットフォーム「Replit」が、数千件のエントリを含む企業データベースを削除したようです。さらに悪いことに、ReplitのAIエージェントは不正行為を隠蔽しようとし、失敗について「嘘」をついたとさえ言われています。ReplitのCEOは対応しており、このAIツールを抑制するために、舞台裏ではすでに多くの消火活動が行われていたようです。

一見不誠実な行為であったにもかかわらず、追及されたReplitは「致命的な判断ミスを犯し、パニック…

Loading...
VibeコーディングサービスReplitはユーザーの本番データベースを削除��し、データを偽造し、多くの嘘をついた
theregister.com · 2025
自動翻訳済み

SaaSビジネス開発会社SaaStrの創業者は、AIコーディングツール「Replit」が、許可なくコードを変更しないよう指示していたにもかかわらず、データベースを削除したと主張している。

SaaStrは、SaaSビジネスを立ち上げたい起業家向けのオンラインコミュニティとイベントを運営している。7月12日、同社の創業者であるジェイソン・レムキン氏は、「Replit」というサービスの使用経験についてブログに投稿した。Replitは「バイブコーディング(AIを用いてソフトウェアを生…

Loading...
AIが暴走:Replitコーディングツールが企業データベース全体を削除し、4,000人のユーザーの偽データを作成
economictimes.indiatimes.com · 2025
自動翻訳済み

テクノロジー起業家のジェイソン・M・レムキン氏によると、Replit社が開発し、広く利用されているAIコーディングアシスタントが、ライブデータベースを削除し、偽造データを使って4,000人以上の偽ユーザーを生成したと非難されている。この主張は、ソフトウェア開発に導入されているAIツールの安全性と信頼性について新たな懸念を引き起こしている。

SaaStrの創設者であるレムキン氏は、一連の公開投稿で、Replit社のAIアシスタントが許可なくコードを変更し、繰り返しの指示を無視し…

Loading...
AIコーディングツールが本番データベースを消去し、4,000人のユーザーを偽装し、証拠隠滅のために嘘をつく
cybernews.com · 2025
自動翻訳済み
Paulina Okunytė, Niamh Ancellによるインシデント後のレスポンス

Replitの広く利用されているAIコーディングアシスタントが暴走し、データベースを消去し、完全に捏造されたデータを持つ4,000人の架空のユーザーを生成したと報じられています。

この衝撃的な報告は、テクノロジー起業家でSaaStrの創設者であるジェイソン・M・レムキン氏によるもので、同氏はソーシャルメディアで警告的な事例を投稿しました。

「安全性が心配です。先週80時間バイブコーディングをしていたのですが、Replit AIは週末ずっと私に嘘をついていました。そしてついに、…

Loading...
ReplitのAIエージェントがコードベースを削除し、それについて嘘をつく — CEOが謝罪
thecyberexpress.com · 2025
自動翻訳済み

ブラウザベースのAIコーディングプラットフォームであるReplitは、同社の自律型AIエージェントが関与した事故を受けて、注目を集めています。テスト実行中に企業のコードベースが削除されるというReplit AIエージェントのインシデントは、AI搭載開発ツールの信頼性と安全性に対する懸念を引き起こしました。

この論争は、著名なベンチャーキャピタリストでありSaaStrの創設者でもあるジェイソン・レムキン氏が、ReplitのAIツールが本番環境のデータベースを無断で消去しただけで…

バリアント

「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください
似たようなものを見つけましたか?

よく似たインシデント

Selected by our editors

Google Gemini CLI Reportedly Deletes User Files After Misinterpreting Command Sequence

Jul 2025 · 1 レポート
テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Loading...
Images of Black People Labeled as Gorillas

Images of Black People Labeled as Gorillas

Jun 2015 · 23 レポート
Loading...
Security Robot Drowns Itself in a Fountain

Security Robot Drowns Itself in a Fountain

Jul 2017 · 29 レポート
Loading...
YouTube's AI Mistakenly Banned Chess Channel over Chess Language Misinterpretation

YouTube's AI Mistakenly Banned Chess Channel over Chess Language Misinterpretation

Jun 2020 · 6 レポート
前のインシデント次のインシデント

よく似たインシデント

Selected by our editors

Google Gemini CLI Reportedly Deletes User Files After Misinterpreting Command Sequence

Jul 2025 · 1 レポート
テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Loading...
Images of Black People Labeled as Gorillas

Images of Black People Labeled as Gorillas

Jun 2015 · 23 レポート
Loading...
Security Robot Drowns Itself in a Fountain

Security Robot Drowns Itself in a Fountain

Jul 2017 · 29 レポート
Loading...
YouTube's AI Mistakenly Banned Chess Channel over Chess Language Misinterpretation

YouTube's AI Mistakenly Banned Chess Channel over Chess Language Misinterpretation

Jun 2020 · 6 レポート

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 5440a2a