インシデント 672の引用情報

Description: The AI system "Lavender" has reportedly been used by the Israel Defense Forces (IDF) to identify targets in Gaza with minimal human oversight, resulting in allegedly high civilian casualty rates. The system, designed to speed up target identification, seems to have led to significant errors and mass casualties.
推定: Unit 8200 Israel Defense Forcesが開発し提供したAIシステムで、Palestinians Gazansに影響を与えた

インシデントのステータス

インシデントID
672
レポート数
2
インシデント発生日
2024-04-03
エディタ
Daniel Atherton

インシデントレポート

translated-ja-‘Lavender’: The AI machine directing Israel’s bombing spree in Gaza
972mag.com · 2024

translated-ja-In 2021, a book titled "The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence That Will Revolutionize Our World" was released in English under the pen name "Brigadier General Y.S." In it, the …

translated-ja-Israeli Military Using AI to Select Targets in Gaza With 'Rubber Stamp' From Human Operator: Report
yahoo.com · 2024

translated-ja-Israel has been using an artificial intelligence system called Lavender to create a “kill list” of at least 37,000 people in Gaza, according to a new report from Israel’s +972 magazine, confirmed by the Guardian. Lavender is t…

バリアント

「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください