Description: Meta's AI chatbot in Facebook Messenger falsely accused multiple state lawmakers of sexual harassment, fabricating incidents, investigations, and consequences that never occurred. These fabricated stories, discovered by City & State, sparked outrage among the affected lawmakers and raised concerns about the reliability of the chatbot. Meta acknowledged the errors and committed to ongoing improvements.
Alleged: Meta と Facebook users developed an AI system deployed by Meta, which harmed Meta , Facebook users , Kristen Gonzalez , Clyde Vanel と New York lawmakers.
インシデントのステータス
インシデントID
712
レポート数
2
インシデント発生日
2024-04-26
エディタ
Daniel Atherton
インシデントレポート
レポートタイムライン
cityandstateny.com · 2024
- 情報源として元のレポートを表示
- インターネットアーカイブでレポートを表示
If you're looking for information about state lawmakers, maybe don't trust Facebook's new Meta AI -- it may hallucinate about sexual harassment.
Facebook's chatbot, which launched in September as the latest in the trend of generative artif…
the-decoder.com · 2024
- 情報源として元のレポートを表示
- インターネットアーカイブでレポートを表示
Meta's new chatbot invents sexual harassment allegations against US politicians. The allegations are fictitious, but the chatbot backs them up with a ton of details.
City & State obtained a screenshot of a Meta AI conversation in which the …
バリアント
「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください
よく似たインシデント
Did our AI mess up? Flag the unrelated incidents
よく似たインシデント
Did our AI mess up? Flag the unrelated incidents