Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Incidente 121: Autonomous Kargu-2 Drone Allegedly Remotely Used to Hunt down Libyan Soldiers

Descripción: In Libya, a Turkish-made Kargu-2 aerial drone powered by a computer vision model was allegedly used remotely by forces backed by the Tripoli-based government to track down and attack enemies as they were running from rocket attacks.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial

Entidades

Ver todas las entidades
Alleged: STM developed an AI system deployed by Tripoli-based government, which harmed Libyan soldiers.

Estadísticas de incidentes

ID
121
Cantidad de informes
4
Fecha del Incidente
2020-03-27
Editores
Sean McGregor, Khoa Lam
Applied Taxonomies
CSETv1, GMF, MIT

Clasificaciones de la Taxonomía CSETv1

Detalles de la Taxonomía

Incident Number

The number of the incident in the AI Incident Database.
 

121

Clasificaciones de la Taxonomía MIT

Machine-Classified
Detalles de la Taxonomía

Risk Subdomain

A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
 

4.2. Cyberattacks, weapon development or use, and mass harm

Risk Domain

The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
 
  1. Malicious Actors & Misuse

Entity

Which, if any, entity is presented as the main cause of the risk
 

AI

Timing

The stage in the AI lifecycle at which the risk is presented as occurring
 

Post-deployment

Intent

Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
 

Intentional

Informes del Incidente

Cronología de Informes

Incident Occurrence¿Se utilizó un robot asesino volador en Libia? Muy posiblemente+2
Un dron militar con mente propia fue utilizado en combate, dice la ONU
¿Se utilizó un robot asesino volador en Libia? Muy posiblemente

¿Se utilizó un robot asesino volador en Libia? Muy posiblemente

thebulletin.org

Un dron militar con mente propia fue utilizado en combate, dice la ONU

Un dron militar con mente propia fue utilizado en combate, dice la ONU

npr.org

El dron impulsado por IA desplegado en Libia posiblemente haya matado a personas sin ninguna interferencia humana

El dron impulsado por IA desplegado en Libia posiblemente haya matado a personas sin ninguna interferencia humana

iafrikan.com

AI. Drone puede haber actuado por sí solo al atacar a los combatientes, dice la ONU

AI. Drone puede haber actuado por sí solo al atacar a los combatientes, dice la ONU

nytimes.com

¿Se utilizó un robot asesino volador en Libia? Muy posiblemente
thebulletin.org · 2021
Traducido por IA

Una captura de pantalla de un video promocional que anuncia el dron Kargu. En el video, el arma se sumerge hacia un objetivo antes de explotar.

El año pasado en Libia, un arma autónoma de fabricación turca, el dron STM Kargu-2, puede haber …

Un dron militar con mente propia fue utilizado en combate, dice la ONU
npr.org · 2021
Traducido por IA

Los drones autónomos de grado militar pueden volar por sí mismos a una ubicación específica, elegir sus propios objetivos y matar sin la ayuda de un operador humano remoto. Se sabe que este tipo de armas están en desarrollo, pero hasta hace…

El dron impulsado por IA desplegado en Libia posiblemente haya matado a personas sin ninguna interferencia humana
iafrikan.com · 2021
Traducido por IA

Se ha revelado que un dron militar impulsado por Inteligencia Artificial pudo identificar y atacar objetivos humanos en Libia. El dron, Kargu-2, está fabricado por una empresa turca (STM) y está equipado con una carga útil que explota una v…

AI. Drone puede haber actuado por sí solo al atacar a los combatientes, dice la ONU
nytimes.com · 2021
Traducido por IA

Un dron militar que atacó a los soldados durante una batalla en la guerra civil de Libiaa el año pasado puede haberlo hecho sin control humano , según un informe reciente encargado por las Naciones Unidas.

El dron, que el informe describió …

Variantes

Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Argentinian City Government Deployed Teenage-Pregnancy Predictive Algorithm Using Invasive Demographic Data

The Case of the Creepy Algorithm That ‘Predicted’ Teen Pregnancy

Apr 2018 · 4 informes
Facebook’s Hate Speech Detection Algorithms Allegedly Disproportionately Failed to Remove Racist Content towards Minority Groups

Facebook’s race-blind practices around hate speech came at the expense of Black users, new documents show

Nov 2021 · 2 informes
Facial Recognition Program in São Paulo Metro Stations Suspended for Illegal and Disproportionate Violation of Citizens’ Right to Privacy

São Paulo subway ordered to suspend use of facial recognition

Apr 2018 · 3 informes
Incidente AnteriorSiguiente Incidente

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Argentinian City Government Deployed Teenage-Pregnancy Predictive Algorithm Using Invasive Demographic Data

The Case of the Creepy Algorithm That ‘Predicted’ Teen Pregnancy

Apr 2018 · 4 informes
Facebook’s Hate Speech Detection Algorithms Allegedly Disproportionately Failed to Remove Racist Content towards Minority Groups

Facebook’s race-blind practices around hate speech came at the expense of Black users, new documents show

Nov 2021 · 2 informes
Facial Recognition Program in São Paulo Metro Stations Suspended for Illegal and Disproportionate Violation of Citizens’ Right to Privacy

São Paulo subway ordered to suspend use of facial recognition

Apr 2018 · 3 informes

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • ecd56df