Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 213

Incidentes Asociados

Incidente 2022 Reportes
A Collection of Tesla Autopilot-Involved Crashes

Loading...
Elon Musk dice que los accidentes de Tesla no deberían ser noticia de primera plana. He aquí por qué deberían hacerlo.
recode.net · 2018

Los defensores de la tecnología de autos sin conductor a menudo promocionan una estadística: más de 37,000 personas murieron en accidentes automovilísticos cada año durante al menos los últimos dos años.

Los autos sin conductor ayudarían a reducir esos accidentes, dicen estas personas.

La lógica es simple. El mayor número de muertes relacionadas con automóviles se debe a conducir ebrio, exceso de velocidad y no usar el cinturón de seguridad. Aparentemente, esto se puede resolver sacando al humano del asiento delantero del automóvil.

Pero un alto nivel de muertes relacionadas con la conducción humana no significa que las versiones actuales de la tecnología semiautónoma sean más seguras.

De hecho, algunos expertos de la industria dicen que en realidad es menos seguro introducir tecnología que solo se haga cargo de parte de la tarea de conducción, ya que se basa en dos sistemas imperfectos: la tecnología que está inherentemente limitada en sus capacidades y los humanos.

Aún así, algunos continúan destacando la seguridad de la tecnología semiautónoma en el camino hoy citando esa estadística. A principios de esta semana, el CEO de Tesla, Elon Musk, reprendió al Washington Post por escribir sobre un accidente de Tesla en el que el conductor involucrado dijo que el piloto automático, la tecnología de asistencia al conductor de la compañía, estaba activado.

Es muy complicado que un accidente de Tesla que resultó en una fractura de tobillo sea noticia de primera plana y las ~ 40,000 personas que murieron en accidentes automovilísticos en EE. UU. solo el año pasado casi no reciben cobertura https://t.co/6gD8MzD6VU — Elon Musk (@ elonmusk) 14 de mayo de 2018

“Es muy complicado que un accidente de Tesla que resultó en una fractura de tobillo sea noticia de primera plana y que las ~40,000 personas que murieron en accidentes automovilísticos en EE. UU. solo el año pasado casi no tengan cobertura”, tuiteó Musk.

La Administración Nacional de Seguridad del Tráfico en las Carreteras ahora está investigando ese accidente, como informó Reuters por primera vez. Este será el tercer accidente relacionado con el piloto automático que NHTSA está investigando solo este año.

Antes de diseccionar los números, es importante abordar el punto más importante de Musk, que es que los medios cubren injustamente los accidentes de Tesla más que los accidentes provocados por humanos. Según la propia admisión de Musk, la tecnología de asistencia al conductor de Tesla aún no se ha probado y se está probando, en humanos reales, por lo que es importante realizar un seguimiento de su progreso. Una forma de hacerlo es contabilizar los accidentes y las muertes.

Eso es especialmente importante ya que Musk ha dicho en múltiples ocasiones que los Tesla son casi "cuatro veces mejores" que los autos promedio, con solo una muerte por cada 320 millones de millas en autos equipados con Autopilot. Algunos cuestionan estas estadísticas proporcionadas por la empresa. Tampoco está claro si todas esas millas se recorrieron en modo de piloto automático o si solo representan las recorridas en automóviles que vienen equipados con la tecnología de asistencia al conductor.

(Es posible que sepamos más el próximo trimestre, que es cuando Musk dijo que comenzará a publicar informes de seguridad).

En comparación, esas aproximadamente 40 000 muertes de vehículos en un año ocurrieron en los 3,2 billones de millas de vehículos que las personas recorrieron en la vía pública en 2016, el año más reciente para el que se dispone de un conjunto completo de datos. Eso es aproximadamente una muerte por cada 80 millones de millas recorridas.

Pero no podemos comparar manzanas con manzanas. Es lógico pensar que los vehículos de conducción manual operados en todo tipo de carreteras, no solo en autopistas, como Autopilot, que han recorrido millones de millas más que los Tesla tienen una mayor probabilidad de sufrir accidentes.

Además de eso, la tasa de mortalidad que la NHTSA publica cada año incluye muertes de conductores, muertes de peatones, muertes de motocicletas y muertes de bicicletas. Tesla solo incluye muertes conocidas de conductores y peatones.

A partir de noviembre de 2016, la flota de vehículos de Tesla en la carretera había recorrido 1.300 millones de millas usando Autopilot. Si bien aún no tenemos números actualizados, Musk dijo en la llamada de ganancias más reciente de la compañía que ese número está aumentando constantemente y representa un tercio de todos los viajes en carretera en vehículos Tesla.

La compañía también afirma que la NHTSA dijo que Autopilot resultó en un 40 por ciento menos de accidentes que los autos Tesla que no tenían la tecnología.

Pero incluso estos números pueden ser engañosos. La propia agencia dijo que no probó la seguridad de Autopilot durante una investigación de 2016. Simplemente comparó las tasas de accidentes de los autos que tenían Autopilot instalado con los que no lo tenían; no evaluó si el piloto automático estaba activado durante esas millas recorridas.

En este momento, no existe un medio definitivo para cuantificar cuán segura es realmente la tecnología autónoma, o cuánto más seguro que un conductor humano debe ser un conductor de robot para que esté listo para salir a la vía pública. Un estudio realizado en la Universidad de Michigan dice que para estar un 80 % seguro de que la tecnología de conducción autónoma es un 90 % más segura que los automóviles conducidos por humanos, los vehículos de prueba deben recorrer 11 000 millones de millas.

Ninguna compañía de vehículos autónomos aún tiene que conducir eso en el mundo real o en simulación.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd