Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
自動翻訳済み

インシデント 1443: GrokがアダルトパフォーマーのSiri Dahlの法定名と生年月日を漏洩したと報じられ、個人情報の暴露や嫌がらせに加担した疑いがある。

自動翻訳済み
概要:
自動翻訳済み
グロックは、アダルトパフォーマーのシリ・ダールの氏名と生年月日を、本人の同意なしに公表したと報じられている。ダールは、これらの情報を非公開にするよう努めてきたと述べ、情報公開後、彼女の氏名を悪用したなりすましアカウントや盗用コンテンツの再投稿がオンライン上に現れたと伝えられている。

ツール

新しいレポート新しいレポート新しいレスポンス新しいレスポンス発見する発見する履歴を表示履歴を表示

組織

すべての組織を表示
推定: xAI , X (Twitter) と Grokが開発し提供したAIシステムで、Victims of doxxing と Siri Dahlに影響を与えた
関与が疑われるAIシステム: X (Twitter) と Grok

インシデントのステータス

インシデントID
1443
レポート数
1
インシデント発生日
2026-02-19
エディタ
Daniel Atherton

インシデントレポート

レポートタイムライン

+1
アダルトパフォーマーのシリ・ダールがグロックに個人情報を晒される:「くたばれ、ナチ野郎」
Loading...
アダルトパフォーマーのシリ・ダールがグロックに個人情報を晒される:「くたばれ、ナチ野郎」

アダルトパフォーマーのシリ・ダールがグロックに個人情報を晒される:「くたばれ、ナチ野郎」

mashable.com

Loading...
アダルトパフォーマーのシリ・ダールがグロックに個人情報を晒される:「くたばれ、ナチ野郎」
mashable.com · 2026
自動翻訳済み

イーロン・マスク氏のAIボット「Grok」が、ポルノ女優のシリ・ダール氏の個人情報を暴露し、彼女の本名と生年月日をユーザーに公開したと、404 Mediaが報じた。

Grokはここ数ヶ月、女性や少女の性的画像(同意のない性的画像)を制作したことで話題になっている。また、ヒトラーを称賛したこと(https://mashable.com/article/grok-xai-apologizes-for-praising-hitler-blames-users)、誤情報を拡散したこと…

バリアント

「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください
似たようなものを見つけましたか?

よく似たインシデント

テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Loading...
Microsoft's TayBot Allegedly Posts Racist, Sexist, and Anti-Semitic Content to Twitter

Microsoft's TayBot Allegedly Posts Racist, Sexist, and Anti-Semitic Content to Twitter

Mar 2016 · 28 レポート
Loading...
Images of Black People Labeled as Gorillas

Images of Black People Labeled as Gorillas

Jun 2015 · 23 レポート
Loading...
ByteDance Allegedly Trained "For You" Algorithm Using Content Scraped without Consent from Other Social Platforms

ByteDance Allegedly Trained "For You" Algorithm Using Content Scraped without Consent from Other Social Platforms

Jan 2017 · 4 レポート
前のインシデント次のインシデント

よく似たインシデント

テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Loading...
Microsoft's TayBot Allegedly Posts Racist, Sexist, and Anti-Semitic Content to Twitter

Microsoft's TayBot Allegedly Posts Racist, Sexist, and Anti-Semitic Content to Twitter

Mar 2016 · 28 レポート
Loading...
Images of Black People Labeled as Gorillas

Images of Black People Labeled as Gorillas

Jun 2015 · 23 レポート
Loading...
ByteDance Allegedly Trained "For You" Algorithm Using Content Scraped without Consent from Other Social Platforms

ByteDance Allegedly Trained "For You" Algorithm Using Content Scraped without Consent from Other Social Platforms

Jan 2017 · 4 レポート

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2026 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 01af10e