Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
自動翻訳済み

インシデント 957: インスタグラムのアルゴリズムの不具合により、ユーザーのリールフィードに暴力的で露骨なコンテンツが溢れかえる

自動翻訳済み
概要:
自動翻訳済み
Instagramのアルゴリズムの不具合により、ユーザーのリール(Reels)フィードが暴力的で心を痛めるコンテンツで溢れかえる事態が発生しました。多くのユーザーが、死や極度の残虐行為、その他の残虐なコンテンツが立て続けに表示され、多くの場合、同様のコンテンツに事前に関与したことがない状態だったと報告しています。この突然の露出は多くのユーザーに心理的苦痛を与え、特に未成年者や社会的弱者がこれらの残虐なコンテンツの影響を受けました。Metaは、AIの不具合が原因であることを確認し、謝罪しました。

ツール

新しいレポート新しいレポート新しいレスポンス新しいレスポンス発見する発見する履歴を表示履歴を表示
OECD AIインシデントおよびハザードモニター(AIM)は、世界中の信頼できるニュースソースからリアルタイムでAI関連のインシデントやハザードを自動的に収集・分類します。
 

組織

すべての組織を表示
推定: Meta , Instagram recommendation algorithm と Instagram Reelsが開発し提供したAIシステムで、Meta users , Instagram users と minorsに影響を与えた
関与が疑われるAIシステム: Instagram recommendation algorithm と Instagram Reels

インシデントのステータス

インシデントID
957
レポート数
1
インシデント発生日
2025-02-28
エディタ
Daniel Atherton

インシデントレポート

レポートタイムライン

+1
メタ、インスタグラムに大量の残虐な画像、暴力、死体が掲載されたことについて謝罪
メタ、インスタグラムに大量の残虐な画像、暴力、死体が掲載されたことについて謝罪

メタ、インスタグラムに大量の残虐な画像、暴力、死体が掲載されたことについて謝罪

theguardian.com

メタ、��インスタグラムに大量の残虐な画像、暴力、死体が掲載されたことについて謝罪
theguardian.com · 2025
自動翻訳済み

マーク・ザッカーバーグのメタは、InstagramユーザーがReelsフィードで暴力、残虐な映像、動物虐待、死体の洪水にさらされたことについて謝罪した。

ユーザーがこの映像を報告したのは、Instagramのアルゴリズムに明らかに不具合があったためで、このアルゴリズムはユーザーがアプリで見るものをキュレートしている。

Reelsは、TikTokに似た、ユーザーが短い動画を共有できるソーシャルメディアプラットフォームの機能である。

オンラインディスカッションプラットフォームであ…

バリアント

「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください
似たようなものを見つけましたか?

よく似たインシデント

テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

YouTube's Algorithms Failed to Remove Violating Content Related to Suicide and Self-Harm

YouTube's Algorithms Failed to Remove Violating Content Related to Suicide and Self-Harm

Feb 2019 · 3 レポート
Images of Black People Labeled as Gorillas

Images of Black People Labeled as Gorillas

Jun 2015 · 24 レポート
TikTok’s Content Moderation Allegedly Failed to Adequately Take down Videos Promoting Eating Disorders

TikTok’s Content Moderation Allegedly Failed to Adequately Take down Videos Promoting Eating Disorders

Dec 2020 · 1 レポート
前のインシデント次のインシデント

よく似たインシデント

テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

YouTube's Algorithms Failed to Remove Violating Content Related to Suicide and Self-Harm

YouTube's Algorithms Failed to Remove Violating Content Related to Suicide and Self-Harm

Feb 2019 · 3 レポート
Images of Black People Labeled as Gorillas

Images of Black People Labeled as Gorillas

Jun 2015 · 24 レポート
TikTok’s Content Moderation Allegedly Failed to Adequately Take down Videos Promoting Eating Disorders

TikTok’s Content Moderation Allegedly Failed to Adequately Take down Videos Promoting Eating Disorders

Dec 2020 · 1 レポート

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 69ff178