Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる

レポート 4807

関連インシデント

インシデント 9571 Report
Alleged Instagram Algorithm Malfunction Floods Users' Reels Feeds with Violent and Graphic Content

Loading...
メタ、インスタグラムに大量の残虐な画像、暴力、死体が掲載されたことについて謝罪
theguardian.com · 2025

マーク・ザッカーバーグのメタは、InstagramユーザーがReelsフィードで暴力、残虐な映像、動物虐待、死体の洪水にさらされたことについて謝罪した。

ユーザーがこの映像を報告したのは、Instagramのアルゴリズムに明らかに不具合があったためで、このアルゴリズムはユーザーがアプリで見るものをキュレートしている。

Reelsは、TikTokに似た、ユーザーが短い動画を共有できるソーシャルメディアプラットフォームの機能である。

オンラインディスカッションプラットフォームであるRedditのInstagramフォーラムには、週半ばにフィードに表示された生々しい素材に言及するユーザーからの投稿が含まれていた。

サブレディットの1人のユーザーは、「自分のリールで少なくとも10人が死ぬのを見た」と書いた。

ユーザーが象に押しつぶされる男性の動画に言及したこともあった。他にも、ヘリコプターで男性がバラバラにされる映像や「沸騰した油に顔を突っ込む男」の動画をフラグ付けしたユーザーがいた。何人かのユーザーは、ユーザーを残酷なコンテンツから守るために設計された「センシティブなコンテンツ」画面が目立つリールフィードの動画を投稿した。

テクノロジーニュースサイト404が公開、あるユーザーのフィードに掲載された暴力的なコンテンツのリストには、男性が火をつけられる、男性が至近距離からレジ係を撃つ、アカウント「PeopleDeadDaily」の動画、豚がレンチで殴られるなどが含まれていた。404 Mediaによると、問題のユーザーは自転車関連のInstagramアカウントを持っていた。

別のRedditユーザーは、「過去24時間、Instagramのアルゴリズムが暴走したように感じます。私のフィードは暴力的なリール動画でいっぱいです。次から次へと。

「Instagram は今、私が誤って「流血と混乱」のアカウントをフォローしたかどうか疑問に思わせようとしているようです。このプラットフォームは「エンゲージメント」と「トレンド」がすべてであることは理解していますが、これが人々にもっとスクロールしてもらう方法だと本当に思っていたのでしょうか?」

Instagram と Facebook の親会社である Meta の広報担当者は、「一部のユーザーが Instagram リール動画で推奨されるべきではないコンテンツを見る原因となっていたエラーを修正しました。この間違いをお詫び申し上げます。」と述べています。

このエラーは、Meta のコンテンツ モデレーションへのアプローチの最近の変更 に続くものです。しかし同社は404 Mediaに対し、過激な動画の氾濫はMetaのコンテンツルールの見直しとは関係がないと語った。この見直しにはファクトチェッカーの削除やプラットフォーム上の検閲量の「大幅な」削減も含まれている。

Metaのコンテンツガイドラインでは、同社は「特に暴力的または過激な」コンテンツを削除し、一部の画像はセンシティブなコンテンツスクリーンで保護されるとしている。英国では、オンライン安全法により、ソーシャルメディアプラットフォームは、18歳未満のユーザーが暴力的、憎悪的、または虐待的なコンテンツなど、有害なコンテンツを閲覧できないようにするための対策を講じることが義務付けられており、これにはそのようなコンテンツをフィルタリングするようにアルゴリズムを構成することが含まれます。

あるインターネット安全キャンペーングループは、Instagramのアルゴリズムに何が起こったのか「完全な説明」を求めました。

2017年にInstagramで悲惨なコンテンツを見た後に自殺した英国の10代の少女モリー・ラッセルの家族が設立したモリー・ローズ財団は、そもそもなぜそのような生々しいコンテンツがプラットフォーム上に存在していたのかという疑問に答える必要があると述べました。

「インスタグラムがコンテンツモデレーションを撤回したことは、今後起こることの兆しとなるだろう」と同財団のアンディ・バロウズ最高経営責任者は語った。「メタの変更により、この種のコンテンツはより自由に利用できるようになるとともに、ユーザーのフィードに表示されることが推奨される頻度も高まるだろう」

情報源を読む

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd