Registro de citas para el Incidente 672

Description: The AI system "Lavender" has reportedly been used by the Israel Defense Forces (IDF) to identify targets in Gaza with minimal human oversight, resulting in allegedly high civilian casualty rates. The system, designed to speed up target identification, seems to have led to significant errors and mass casualties.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial
Presunto: un sistema de IA desarrollado e implementado por Unit 8200 y Israel Defense Forces, perjudicó a Palestinians y Gazans.

Estadísticas de incidentes

ID
672
Cantidad de informes
2
Fecha del Incidente
2024-04-03
Editores
Daniel Atherton
translated-es-‘Lavender’: The AI machine directing Israel’s bombing spree in Gaza
972mag.com · 2024

translated-es-In 2021, a book titled "The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence That Will Revolutionize Our World" was released in English under the pen name "Brigadier General Y.S." In it, the …

translated-es-Israeli Military Using AI to Select Targets in Gaza With 'Rubber Stamp' From Human Operator: Report
yahoo.com · 2024

translated-es-Israel has been using an artificial intelligence system called Lavender to create a “kill list” of at least 37,000 people in Gaza, according to a new report from Israel’s +972 magazine, confirmed by the Guardian. Lavender is t…

Variantes

Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.