Description: The AI system "Lavender" has reportedly been used by the Israel Defense Forces (IDF) to identify targets in Gaza with minimal human oversight, resulting in allegedly high civilian casualty rates. The system, designed to speed up target identification, seems to have led to significant errors and mass casualties.
インシデントのステータス
インシデントID
672
レポート数
2
インシデント発生日
2024-04-03
エディタ
Daniel Atherton
インシデントレポート
レポートタイムライン
972mag.com · 2024
- 情報源として元のレポートを表示
- インターネットアーカイブでレポートを表示
translated-ja-In 2021, a book titled "The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence That Will Revolutionize Our World" was released in English under the pen name "Brigadier General Y.S." In it, the …
yahoo.com · 2024
- 情報源として元のレポートを表示
- インターネットアーカイブでレポートを表示
バリアント
「バリアント」は既存 のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください