Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
自動翻訳済み

インシデント 1470: DisMech AIキュレーションエージェントが、新規貢献者の学習課題として意図されたGitHubイシューを完了したと報じられている。

自動翻訳済み
概要:
自動翻訳済み
Monarch InitiativeのDisMech GitHubリポジトリにある自動AIキュレーションエージェントが、本来担当するはずだった初心者向けのディスレクシア関連キュレーション作業を、新規の人間コントリビューターが作業を開始する前に開始してしまったと報じられている。メンテナーは、エージェントがコントリビューターの学習機会を奪ってしまったことを謝罪し、自動エージェントが初心者向けのGitHubタスクを性急に引き受けないようにするためのポリシー課題を提起した。

ツール

新しいレポート新しいレポート新しいレスポンス新しいレスポンス発見する発見する履歴を表示履歴を表示

組織

すべての組織を表示
Alleged: Anthropic developed an AI system deployed by Monarch Initiative と DisMech maintainers, which harmed sagehrke.
関与が疑われるAIシステム: dragon-ai-agent , Agentic AI system , curation-scanner workflow , Claude Code と Claude Opus 4.7

インシデントのステータス

インシデントID
1470
レポート数
1
インシデント発生日
2026-04-27
エディタ
Daniel Atherton

インシデントレポート

レポートタイムライン

+1
ディスレクシアをキュレートする #1800
Loading...
ディスレクシアをキュレートする #1800

ディスレクシアをキュレートする #1800

github.com

Loading...
ディスレクシアをキュレートする #1800
github.com · 2026
自動翻訳済み

@sagehrke

説明

sagehrke

3日前 にオープン

メンバー

ディスレクシア担当(MONDO:0005489)

アクティビティ

github-actions

追加

機能強化:新機能またはリクエスト

キュレーション:コンテンツをキュレーションする(人間またはエージェントによる)プルリクエスト(ナレッジベースYAMLファイルを変更するもの)にタグ付けするためのタグ

[3日前] 3日前

github-actions

github-actions が 3 日前にコメントしました

github-actionsbot

3…

バリアント

「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください
似たようなものを見つけましたか?

よく似たインシデント

テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Loading...
YouTube’s Recommendation Algorithm Allegedly Promoted Climate Misinformation Content

YouTube’s Recommendation Algorithm Allegedly Promoted Climate Misinformation Content

Feb 2019 · 2 レポート
Loading...
Thoughts App Allegedly Created Toxic Tweets

Thoughts App Allegedly Created Toxic Tweets

Jul 2020 · 1 レポート
Loading...
Bad AI-Written Christmas Carols

Bad AI-Written Christmas Carols

Dec 2017 · 1 レポート
前のインシデント

よく似たインシデント

テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Loading...
YouTube’s Recommendation Algorithm Allegedly Promoted Climate Misinformation Content

YouTube’s Recommendation Algorithm Allegedly Promoted Climate Misinformation Content

Feb 2019 · 2 レポート
Loading...
Thoughts App Allegedly Created Toxic Tweets

Thoughts App Allegedly Created Toxic Tweets

Jul 2020 · 1 レポート
Loading...
Bad AI-Written Christmas Carols

Bad AI-Written Christmas Carols

Dec 2017 · 1 レポート

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2026 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 537d5f5