Incidentes Asociados

Los controles del piloto automático aún no son completamente capaces de funcionar sin la intervención humana, pero son lo suficientemente buenos como para adormecernos con una falsa sensación de seguridad.
Cuando los agentes de policía de California se acercaron a un Tesla detenido en el centro de una carretera de cinco carriles en las afueras de San Francisco la semana pasada, encontraron a un hombre dormido al volante. El conductor, que fue arrestado bajo sospecha de conducir ebrio, les dijo que su automóvil estaba en "piloto automático", el sistema de asistencia al conductor semiautónomo de Tesla.
En un incidente separado esta semana, los bomberos en Culver City informaron que un Tesla chocó por detrás con su camión de bomberos estacionado mientras asistía a un accidente en la autopista. Una vez más, el conductor dijo que el vehículo estaba en piloto automático.
CHP San Francisco (@CHPSanFrancisco) Cuando se desmaya detrás del volante en el Puente de la Bahía con más del doble del límite legal de alcohol en alcohol y lo encuentra un motor de CHP. El conductor explicó que Tesla había sido puesto en piloto automático. Fue arrestado y acusado de sospecha de DUI. Coche remolcado (no, no se condujo solo hasta el patio de remolque). pic.twitter.com/4NSRlOBRBL
La promesa repetida con frecuencia de la tecnología sin conductor es que hará que las carreteras sean más seguras al reducir el error humano, la causa principal de los accidentes. Sin embargo, los fabricantes de automóviles tienen un largo camino por recorrer antes de que puedan eliminar por completo al conductor.
Lo que queda es un período intermedio desordenado en el que los automóviles se aumentan gradualmente con tecnologías automatizadas como la detección de obstáculos y el centrado de carril. En teoría, estos pueden reducir el riesgo de choques, pero no son a prueba de fallas. Como dijo una portavoz de Tesla: "El piloto automático está diseñado para usarse solo con un conductor totalmente atento".
La autonomía les da a las personas la sensación de que algo está bajo control, y tenemos una tendencia a sobrestimar las capacidades de la tecnología Nidhi Kalra, científico de la información
Sin embargo, la investigación ha demostrado que los conductores se dejan llevar por una falsa sensación de seguridad hasta el punto en que sus mentes y miradas comienzan a desviarse de la carretera. Las personas se distraen o se preocupan con sus teléfonos inteligentes. Entonces, cuando el automóvil se encuentra en una situación en la que el ser humano necesita intervenir, el conductor puede tardar en reaccionar.
En un momento en que ya hay un aumento en las colisiones causadas por conductores distraídos con sus teléfonos inteligentes, podríamos estar entrando en un período particularmente peligroso de dolores de crecimiento con los sistemas de conducción autónomos.
“La gente ya tiende a distraerse. Estamos en nuestros teléfonos, comiendo hamburguesas, conduciendo con las rodillas”, dijo Nidhi Kalra, científica de información sénior de Rand Corporation. “La autonomía adicional les da a las personas la sensación de que algo más está en control, y tenemos una tendencia a sobrestimar las capacidades de la tecnología”.
Steven Shladover, del programa Path de la Universidad de California, Berkeley, fue más crítico con los fabricantes de automóviles: "Estas empresas están sobrevendiendo las capacidades de los sistemas que tienen y el público está siendo engañado".
Waymo, el spin-off de autos autónomos de Google, descubrió el problema de traspaso cuando estaba probando un sistema de manejo automatizado de "nivel 3", uno que puede conducirse solo bajo ciertas condiciones, pero en el que el ser humano aún necesita hacerse cargo si la situación se vuelve difícil. El siguiente nivel, el cuatro, es lo que la mayoría de la gente considera “totalmente autónomo”.
La mayoría de las funciones avanzadas de asistencia al conductor introducidas por Tesla, Mercedes, BMW y Cadillac se clasifican como automatización de nivel 2.
Durante las pruebas, Waymo grabó lo que su director ejecutivo, John Krafcik, describió como un video "algo aterrador" de conductores enviando mensajes de texto, maquillándose e incluso durmiendo al volante mientras sus autos se precipitaban por la autopista. Esto llevó a Waymo a decidir saltarse por completo la automatización de nivel 3 y centrarse en su lugar en la autonomía total.
“Descubrimos que los conductores humanos confiaban demasiado en la tecnología y no estaban monitoreando la carretera con el cuidado suficiente para poder tomar el control de manera segura cuando era necesario”, dijo la compañía en su informe de seguridad de 2017.
Ian Reagan del Instituto de Seguros para la Seguridad en las Carreteras (IIHS) comparte la cautela de Waymo, aunque reconoce que el potencial de seguridad de los sistemas automatizados es "enorme".
“Hay muchas posibles consecuencias no deseadas, particularmente con los sistemas de nivel 2 y 3”, dijo, explicando cómo el IIHS compró y probó varios autos con automatización de nivel 2, incluidos vehículos de Tesla, Mercedes y BMW. “Incluso los mejores hacen cosas que no esperas”, dijo.
Elon Musk alinea un día de pago de $ 55 mil millones: el bono más grande del mundo Leer más
Durante las pruebas, el IIHS registró un Mercedes que tenía problemas cuando el carril de la carretera se bifurcaba en dos. “El sistema de radar se bloqueó en el carril de salida de la derecha cuando el conductor estaba tratando de ir derecho”, dijo.
El piloto automático de Tesla sufrió una falla diferente y repetible que hizo que se desviara hacia la barandilla cuando se acercaba a la cima de una colina. “Si el conductor se hubiera distraído, eso definitivamente habría causado un accidente”, dijo.
La preocupación por este nuevo tipo de conducción distraída está obligando a los fabricantes de automóviles a introducir funciones de seguridad adicionales para compensar. Por ejemplo, GM ha introducido la tecnología de seguimiento ocular