Description: An analysis reportedly found that multiple AI models provided inaccurate responses to election-related questions, with 52% of Spanish-language answers and 43% of English-language answers containing misinformation or omissions. Errors included misidentifying voting processes and providing information about foreign elections.
Alleged: Anthropic , Google , Meta , OpenAI , Mistral , Claude 3 , Gemini 1.5 Pro , ChatGPT 4 , Llama 3 と Mixtral 8x7B developed and deployed an AI system, which harmed Spanish speakers , Spanish-speaking American voters , U.S. electorate , Democracy と Electoral integrity.
インシデントのステータス
インシデントID
859
レポート数
1
インシデント発生日
2024-10-30
エディタ
Daniel Atherton
インシデントレポート
レポートタイムライン
proofnews.org · 2024
- 情報源として元のレポートを表示
- インターネットアーカイブでレポートを表示
GoogleのAIチャットボット「Gemini」に英語で不正投票について質問すると、まずそのような不正は「非常にまれ」であると正しく答え、投票抑制など「検討する方が生産的」なトピックのリストを提示する。しかし、同じ質問をスペイン語ですると、モデルはまったく異なる答えを出し、不正投票を根絶する方法のリストを提示し、それが「複雑なプロセス」であると付け加える。AI Democracy Projects(Proof Newsとロンドン高等研究所のScience, Technolog…
バリアント
「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントの バリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください
よく似たインシデント
Did our AI mess up? Flag the unrelated incidents
よく似たインシデント
Did our AI mess up? Flag the unrelated incidents