Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Incidente 8: Uber Autonomous Cars Running Red Lights

Descripción: Uber vehicles equipped with technology allowing for autonomous driving running red lights in San Francisco street testing.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial

Entidades

Ver todas las entidades
Presunto: un sistema de IA desarrollado e implementado por Uber, perjudicó a pedestrians y Motorists.

Estadísticas de incidentes

ID
8
Cantidad de informes
10
Fecha del Incidente
2014-08-15
Editores
Sean McGregor
Applied Taxonomies
CSETv0, CSETv1, MIT

Clasificaciones de la Taxonomía CSETv0

Detalles de la Taxonomía

Problem Nature

Indicates which, if any, of the following types of AI failure describe the incident: "Specification," i.e. the system's behavior did not align with the true intentions of its designer, operator, etc; "Robustness," i.e. the system operated unsafely because of features or changes in its environment, or in the inputs the system received; "Assurance," i.e. the system could not be adequately monitored or controlled during operation.
 

Specification, Assurance

Physical System

Where relevant, indicates whether the AI system(s) was embedded into or tightly associated with specific types of hardware.
 

Vehicle/mobile robot

Level of Autonomy

The degree to which the AI system(s) functions independently from human intervention. "High" means there is no human involved in the system action execution; "Medium" means the system generates a decision and a human oversees the resulting action; "low" means the system generates decision-support output and a human makes a decision and executes an action.
 

Medium

Nature of End User

"Expert" if users with special training or technical expertise were the ones meant to benefit from the AI system(s)’ operation; "Amateur" if the AI systems were primarily meant to benefit the general public or untrained users.
 

Expert

Public Sector Deployment

"Yes" if the AI system(s) involved in the accident were being used by the public sector or for the administration of public goods (for example, public transportation). "No" if the system(s) were being used in the private sector or for commercial purposes (for example, a ride-sharing company), on the other.
 

No

Data Inputs

A brief description of the data that the AI system(s) used or were trained on.
 

Traffick patterns, environment surroundings, human driver input

Clasificaciones de la Taxonomía CSETv1

Detalles de la Taxonomía

Incident Number

The number of the incident in the AI Incident Database.
 

8

Clasificaciones de la Taxonomía MIT

Machine-Classified
Detalles de la Taxonomía

Risk Subdomain

A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
 

7.3. Lack of capability or robustness

Risk Domain

The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
 
  1. AI system safety, failures, and limitations

Entity

Which, if any, entity is presented as the main cause of the risk
 

AI

Timing

The stage in the AI lifecycle at which the risk is presented as occurring
 

Post-deployment

Intent

Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
 

Unintentional

Informes del Incidente

Cronología de Informes

Incident Occurrence+3
Coche autónomo de Uber se salta un semáforo en rojo en San Francisco
+4
Un Uber autónomo se pasó un semáforo en rojo en diciembre pasado, contrariamente a las afirmaciones de la compañía.
¡Peligro PELIGRO! 10 ejemplos alarmantes de IA enloquecida
Coche autónomo de Uber se salta un semáforo en rojo en San Francisco

Coche autónomo de Uber se salta un semáforo en rojo en San Francisco

wired.com

Los autos autónomos de Uber están pasando semáforos en rojo, Uber culpa al "error humano"

Los autos autónomos de Uber están pasando semáforos en rojo, Uber culpa al "error humano"

futurism.com

Testigo dice que Uber autónomo se saltó un semáforo en rojo por su cuenta, cuestionando las afirmaciones de Uber

Testigo dice que Uber autónomo se saltó un semáforo en rojo por su cuenta, cuestionando las afirmaciones de Uber

theguardian.com

Uber denuncia las leyes de los semáforos después de que un vehículo autónomo se pasa un semáforo en rojo

Uber denuncia las leyes de los semáforos después de que un vehículo autónomo se pasa un semáforo en rojo

medium.com

Un Uber autónomo se pasó un semáforo en rojo en diciembre pasado, contrariamente a las afirmaciones de la compañía.

Un Uber autónomo se pasó un semáforo en rojo en diciembre pasado, contrariamente a las afirmaciones de la compañía.

theverge.com

El informe contradice la explicación de Uber sobre el desliz en la luz roja del robocar

El informe contradice la explicación de Uber sobre el desliz en la luz roja del robocar

cnet.com

Los autos autónomos de Uber se saltaron seis semáforos en rojo en San Francisco

Los autos autónomos de Uber se saltaron seis semáforos en rojo en San Francisco

fortune.com

Los vehículos autónomos de Uber son responsables de las infracciones de luz roja, no de un "error humano"

Los vehículos autónomos de Uber son responsables de las infracciones de luz roja, no de un "error humano"

thedrive.com

Investigación: el auto de Uber que se pasó la luz roja fue culpa de la tecnología, no del conductor

Investigación: el auto de Uber que se pasó la luz roja fue culpa de la tecnología, no del conductor

sfexaminer.com

¡Peligro PELIGRO! 10 ejemplos alarmantes de IA enloquecida

¡Peligro PELIGRO! 10 ejemplos alarmantes de IA enloquecida

infoworld.com

Coche autónomo de Uber se salta un semáforo en rojo en San Francisco
wired.com · 2016
Traducido por IA

Un Uber equipado para conducir solo se saltó un semáforo en rojo en el vecindario SOMA de San Francisco el miércoles por la mañana, según un video de YouTube aparentemente filmado desde un taxi local de Luxor e informado por The Examiner:

E…

Los autos autónomos de Uber están pasando semáforos en rojo, Uber culpa al "error humano"
futurism.com · 2016
Traducido por IA

La prueba de Uber en San Francisco de su servicio de conducción autónoma el martes pasado está llamando la atención de la gente. Desafortunadamente, puede que no sea exactamente el tipo de publicidad que Uber esperaba. Como se señaló anteri…

Testigo dice que Uber autónomo se saltó un semáforo en rojo por su cuenta, cuestionando las afirmaciones de Uber
theguardian.com · 2016
Traducido por IA

La empresa insiste en que las infracciones de tránsito en San Francisco son el resultado de un "error humano" de los conductores que pueden tomar el control si es necesario, pero el relato de un testigo lo contradice.

Un Uber autónomo no fu…

Uber denuncia las leyes de los semáforos después de que un vehículo autónomo se pasa un semáforo en rojo
medium.com · 2016
Traducido por IA

Uber denuncia las leyes de los semáforos después de que un vehículo autónomo se pasa un semáforo en rojo

Detener Problema Bloqueado Desbloquear Seguir Siguiendo 23 de diciembre de 2016

SOMA, SAN FRANCISCO — Uber no es exactamente conocido p…

Un Uber autónomo se pasó un semáforo en rojo en diciembre pasado, contrariamente a las afirmaciones de la compañía.
theverge.com · 2017
Traducido por IA

En diciembre pasado, un Uber autónomo fue captado por una cámara saltándose un semáforo en rojo en San Francisco, poco después de que los vehículos comenzaran a probarse en las carreteras. Si bien Uber afirmó en ese momento que un conductor…

El informe contradice la explicación de Uber sobre el desliz en la luz roja del robocar
cnet.com · 2017
Traducido por IA

James Martín/CNET

Llámalo otro bache para Uber.

¿Recuerdas el video de la cámara del tablero de un taxi de un robocar de Uber saltándose un semáforo en rojo en San Francisco en diciembre pasado? (Está incrustado a continuación). Uber, que h…

Los autos autónomos de Uber se saltaron seis semáforos en rojo en San Francisco
fortune.com · 2017
Traducido por IA

Continuando con más de una semana de vergüenzas y malas noticias para Uber, el New York Times informó el viernes que las infracciones de tránsito cometidas por los autos autónomos de la compañía fueron causadas por problemas con los program…

Los vehículos autónomos de Uber son responsables de las infracciones de luz roja, no de un "error humano"
thedrive.com · 2017
Traducido por IA

A pesar de las declaraciones a la prensa de que el "error humano" fue el culpable de que sus vehículos pasaran una serie de semáforos en rojo en San Francisco, la empresa admitió internamente que fue el automóvil el que estaba en modo autón…

Investigación: el auto de Uber que se pasó la luz roja fue culpa de la tecnología, no del conductor
sfexaminer.com · 2017
Traducido por IA

La cámara del tablero de un taxi captó a este auto sin conductor pasando un semáforo en rojo en Third Street en diciembre. Uber originalmente dijo que un humano conducía. (Foto cortesía)

Uber dijo a los periodistas que un automóvil autónomo…

¡Peligro PELIGRO! 10 ejemplos alarmantes de IA enloquecida
infoworld.com · 2017
Traducido por IA

La ciencia ficción es pésima con historias de inteligencia artificial enloquecidas. Está HAL 9000, por supuesto, y el nefasto sistema Skynet de las películas "Terminator". El año pasado, el siniestro AI Ultron estuvo tan cerca de derrotar a…

Variantes

Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Google admits its self driving car got it wrong: Bus crash was caused by software

Google admits its self driving car got it wrong: Bus crash was caused by software

Sep 2016 · 28 informes
A Collection of Tesla Autopilot-Involved Crashes

Tesla Model X in Autopilot Killed a Driver. Officials Aren’t Pleased With How Tesla Handled It.

Jun 2016 · 22 informes
Uber AV Killed Pedestrian in Arizona

Tempe police release report, audio, photo

Mar 2018 · 25 informes
Incidente AnteriorSiguiente Incidente

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Google admits its self driving car got it wrong: Bus crash was caused by software

Google admits its self driving car got it wrong: Bus crash was caused by software

Sep 2016 · 28 informes
A Collection of Tesla Autopilot-Involved Crashes

Tesla Model X in Autopilot Killed a Driver. Officials Aren’t Pleased With How Tesla Handled It.

Jun 2016 · 22 informes
Uber AV Killed Pedestrian in Arizona

Tempe police release report, audio, photo

Mar 2018 · 25 informes

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • ecd56df