Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 202

Incidentes Asociados

Incidente 2022 Reportes
A Collection of Tesla Autopilot-Involved Crashes

Loading...
¿Quién tiene la culpa cuando los coches robot matan?
trustedreviews.com · 2018

Es el año 2025. Su automóvil sin conductor acaba de chocar contra un árbol a 55 mph porque su computadora incorporada valora la vida de un peatón por encima de la suya. Tus heridas son el resultado de unas pocas líneas de código que fueron pirateadas por un programador de software de 26 años en el Área de la Bahía de San Francisco en los vertiginosos días de 2018. Mientras esperas un dron paramédico, sangrando por el en la carretera, te preguntas: ¿dónde salió todo mal?

El escenario anterior puede sonar fantasioso, pero la muerte por un automóvil sin conductor no solo es inevitable, ya está sucediendo. Más recientemente, un automóvil autónomo de Uber atropelló y mató a un peatón en Arizona, mientras que en mayo de 2017, el software semiautónomo falló de manera igualmente trágica cuando el Tesla Model S de Joshua Brown pasó por debajo del remolque de un camión de 18 ruedas en un carretera mientras está en el modo de piloto automático.

Tesla admite que los sensores de su sistema no pudieron distinguir el tráiler blanco contra un cielo brillante, lo que resultó en la muerte prematura del floridano de 40 años. Pero Tesla también dice que los conductores deben mantener las manos en el volante para evitar que ocurran accidentes como este, incluso cuando el piloto automático está activado. A pesar del nombre, es un sistema semiautónomo.

Uber, por otro lado, puede no tener la culpa, según un informe policial preliminar, que culpa a la víctima.

Es un hecho triste que estas tragedias sean solo una muestra de lo que está por venir. Al escribir este artículo, me di cuenta de lo poco preparados que estamos para el futuro sin conductor, que se espera para 2020. Lo que es más preocupante es que este futuro ya se está derramando en nuestro presente, gracias a sistemas semiautónomos como el piloto automático de Tesla y Pruebas de vehículos autónomos de Uber (ahora detenidas).

La tecnología del mañana está aquí hoy, y con problemas como la ética y la responsabilidad ahora imposibles de evitar, los fabricantes de automóviles no pueden darse el lujo de no estar preparados.

¿Qué sucede cuando un automóvil sin conductor provoca un accidente y, peor aún, mata a alguien?

Entendiendo la muerte por computadora

Para abordar la responsabilidad, debemos preguntarnos cómo y por qué un automóvil sin conductor podría matar a alguien. A diferencia de los humanos, los automóviles no sufren fatiga, no experimentan la ira de la carretera y no pueden beber seis pintas de cerveza antes de salir a la carretera, pero aún pueden cometer errores.

El Model S de Tesla presenta tecnología de piloto automático semiautónomo

Podría decirse que la causa más probable de "muerte por automóvil sin conductor" sería si los sensores de un automóvil interpretaran incorrectamente los datos, lo que haría que la computadora tomara una mala decisión de manejo. Si bien cada incidente, fatal o no, resultará en correcciones y mejoras, rastrear la responsabilidad sería un viaje legal largo y arduo. Llegaré a eso más tarde.

La segunda posible causa de muerte por automóvil sin conductor es mucho más difícil de resolver, porque se trata de ética.

Imagínese este escenario: está viajando en un automóvil sin conductor con su cónyuge, viajando por una carretera secundaria de un solo carril y bordeada de árboles. Hay docenas y docenas de B-roads como este en el Reino Unido. El automóvil viaja a 55 mph, que está por debajo del límite de velocidad nacional de 60 mph en esta carretera.

Se acerca una curva ciega, por lo que su automóvil reduce la velocidad a 40 mph. Al dar la vuelta a la curva, ve que un niño ha salido corriendo a la carretera desde una acera pública escondida entre los árboles. Su madre entró en pánico y lo siguió, y ahora ambos están en medio del camino. Es un día ventoso y tu coche es eléctrico, así que no te oyeron venir. Los sensores de su automóvil no los vieron a ninguno de ellos hasta que estuvieron a solo unos metros de distancia.

No hay posibilidad de frenar a tiempo, por lo que la madre y el niño van a morir si su automóvil no se desvía de inmediato. Si el automóvil se desvía hacia la izquierda, se sale de la carretera y choca contra un árbol; si el automóvil gira a la derecha, golpea un camión autónomo que viene en la dirección opuesta. Está vacío, por lo que usted y su cónyuge serían las únicas víctimas.

En esta situación, el automóvil se ve obligado a tomar una decisión: golpea a los peatones, casi con certeza matándolos, o arriesga a los pasajeros con la probabilidad de que sobrevivan al accidente. Las respuestas se habrán decidido meses (o incluso años) antes, cuando los algoritmos se programaron originalmente en el sistema informático de su automóvil, y muy bien podrían acabar con su vida. Si bien el automóvil no lo sabrá, esto es en efecto una decisión ética.

Para demostrar la abrumadora dificultad de codificar la ética, pruebe la Máquina Moral del Instituto Tecnológico de Massachusetts. Es un cuestionario que tiene como objetivo rastrear cómo reaccionan los humanos a las decisiones morales que toman los autos sin conductor. Se le presenta una serie de escenarios en los que un automóvil sin conductor tiene que elegir entre dos males (es decir, matar a dos pasajeros o cinco peatones) y usted debe elegir cuál cree que es más aceptable. Como te darás cuenta rápidamente, es realmente difícil.

¿Qué escenario elegirías? Moral Machine del MIT es una pesadilla autodirigida

Si todo esto te asusta, no estás solo. En marzo, una encuesta realizada por la organización automovilística estadounidense AAA reveló que tres de cada cuatro conductores estadounidenses tienen “miedo” de viajar en automóvil.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd