Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 1511

Incidentes Asociados

Incidente 1534 Reportes
Tesla Driver on Autopilot Ran a Red Light, Crashing into a Car and Killing Two People in Los Angeles

Loading...
Los cargos por delitos graves son los primeros en un accidente fatal que involucra a Autopilot
apnews.com · 2022

DETROIT (AP) — Los fiscales de California presentaron dos cargos de homicidio vehicular contra el conductor de un Tesla en piloto automático que pasó una luz roja, se estrelló contra otro automóvil y mató a dos personas en 2019.

El acusado parece ser la primera persona acusada de un delito grave en los Estados Unidos por un accidente fatal que involucró a un automovilista que usaba un sistema de conducción parcialmente automatizado. Los fiscales del condado de Los Ángeles presentaron los cargos en octubre, pero salieron a la luz la semana pasada.

El conductor, Kevin George Aziz Riad, de 27 años, se declaró inocente. Riad, un conductor de servicio de limusina, está libre bajo fianza mientras el caso esté pendiente.

El uso indebido del piloto automático, que puede controlar la dirección, la velocidad y el frenado, ha ocurrido en numerosas ocasiones y es objeto de investigaciones por parte de dos agencias federales. La presentación de cargos en el accidente de California podría servir de aviso a los conductores que usan sistemas como Autopilot de que no pueden confiar en ellos para controlar los vehículos.

Los cargos penales no son los primeros que involucran un sistema de conducción automatizado, pero son los primeros en involucrar una tecnología de conducción ampliamente utilizada. Las autoridades de Arizona presentaron un cargo de homicidio negligente en 2020 contra un conductor que Uber había contratado para participar en la prueba de un vehículo totalmente autónomo en la vía pública. El vehículo Uber, un SUV con el conductor de respaldo humano a bordo, golpeó y mató a un peatón.

Por el contrario, el piloto automático y otros sistemas de asistencia al conductor se utilizan ampliamente en las carreteras de todo el mundo. Se estima que 765,000 vehículos Tesla están equipados con él solo en los Estados Unidos.

En el accidente de Tesla, la policía dijo que un Model S se movía a alta velocidad cuando salió de una autopista y se saltó un semáforo en rojo en Gardena, un suburbio de Los Ángeles, y chocó contra un Honda Civic en una intersección el 29 de diciembre de 2019. Dos personas quienes se encontraban en el Civic, Gilberto Alcázar López y María Guadalupe Nieves-López fallecieron en el lugar. Riad y una mujer en el Tesla fueron hospitalizados con lesiones que no ponen en peligro la vida.

Los documentos de acusación penal no mencionan el piloto automático. Pero la Administración Nacional de Seguridad del Tráfico en las Carreteras, que envió a los investigadores al accidente, confirmó la semana pasada que el piloto automático estaba en uso en el Tesla en el momento del accidente.

El abogado defensor de Riad no respondió a las solicitudes de comentarios la semana pasada y la Oficina del Fiscal de Distrito del Condado de Los Ángeles se negó a discutir el caso. La audiencia preliminar de Riad está programada para el 23 de febrero.

La NHTSA y la Junta Nacional de Seguridad en el Transporte han estado revisando el uso indebido generalizado del piloto automático por parte de los conductores, cuyo exceso de confianza y falta de atención han sido culpados de múltiples accidentes, incluidos los fatales. En un informe de bloqueo, la NTSB se refirió a su mal uso como "complacencia de automatización".

La agencia dijo que en un accidente de 2018 en Culver City, California, en el que un Tesla chocó contra un camión de bomberos, el diseño del sistema de piloto automático "permitió que el conductor se desconectara de la tarea de conducir". Nadie resultó herido en ese choque.

En mayo pasado, un hombre de California fue arrestado después de que los oficiales notaron que su Tesla se movía por una autopista con el hombre en el asiento trasero y nadie detrás del volante.

Los Teslas que tenían el piloto automático en uso también chocaron contra una barrera de la carretera o camiones con remolque que cruzaban las carreteras. La NHTSA ha enviado equipos de investigación a 26 accidentes que involucran al piloto automático desde 2016, con al menos 11 muertes.

Se han dejado mensajes en busca de comentarios de Tesla, que disolvió su departamento de relaciones con los medios. Desde que comenzaron los accidentes del piloto automático, Tesla ha actualizado el software para intentar que sea más difícil que los conductores abusen de él. También se intentó mejorar la capacidad del piloto automático para detectar vehículos de emergencia.

La compañía ha dicho que el piloto automático y un sistema más sofisticado de "conducción autónoma total" no pueden conducirse solos y que los conductores deben prestar atención y estar listos para reaccionar en cualquier momento. Cientos de propietarios de Tesla están probando la “conducción totalmente autónoma” en las vías públicas de EE. UU.

Bryant Walker Smith, profesor de derecho en la Universidad de Carolina del Sur que estudia vehículos automatizados, dijo que este es el primer caso en EE. UU. que él sepa en el que se presentaron cargos penales graves en un accidente fatal que involucró un sistema de asistencia al conductor parcialmente automatizado. Tesla, dijo, podría ser “culpable penal, civil o moralmente” si se descubre que ha puesto una tecnología peligrosa en la carretera.

Donald Slavik, un abogado de Colorado que se ha desempeñado como consultor en demandas de tecnología automotriz, incluidas muchas contra Tesla, dijo que él tampoco tiene conocimiento de que se hayan presentado cargos por delitos graves contra un conductor estadounidense que estaba usando tecnología de conducción parcialmente automatizada involucrada en un choque fatal.

Las familias de López y Nieves-López han demandado a Tesla y Riad en juicios separados. Han alegado negligencia por parte de Riad y han acusado a Tesla de vender vehículos defectuosos que pueden acelerar bruscamente y que carecen de un eficaz sistema automático de frenado de emergencia. Un juicio conjunto está programado para mediados de 2023.

La familia de López, en documentos judiciales, alega que el automóvil “aceleró de repente y sin querer a una velocidad excesiva, insegura e incontrolable”. La familia de Nieves-López afirma además que Riad era un conductor inseguro, con múltiples infracciones de movimiento en su registro, y que no podía manejar el Tesla de alto rendimiento.

Por separado, la NHTSA está investigando una docena de accidentes en los que un Tesla en piloto automático se topó con varios vehículos de emergencia estacionados. En los accidentes bajo investigación, al menos 17 personas resultaron heridas y una persona murió.

Cuando se le preguntó sobre los cargos de homicidio involuntario contra Riad, la agencia emitió un comunicado diciendo que no hay ningún vehículo a la venta que pueda conducirse solo. Y ya sea que un automóvil use o no un sistema parcialmente automatizado, dijo la agencia, "todo vehículo requiere que el conductor humano tenga el control en todo momento".

NHTSA agregó que todas las leyes estatales responsabilizan a los conductores humanos por la operación de sus vehículos. Aunque los sistemas automatizados pueden ayudar a los conductores a evitar accidentes, dijo la agencia, la tecnología debe usarse de manera responsable.

Rafaela Vásquez, la conductora del vehículo de prueba autónomo de Uber, fue acusada en 2020 de homicidio negligente después de que el SUV atropellara fatalmente a un peatón en los suburbios de Phoenix en 2018. Vásquez se declaró inocente. Los fiscales de Arizona se negaron a presentar cargos penales contra Uber.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd