Incidentes Asociados

Una vista interior de la operadora Rafaela Vásquez momentos antes de que un SUV de Uber atropellara a una mujer en Tempe, Arizona, en marzo de 2018. Departamento de Policía de Tempe/AP
Los hallazgos preliminares de un accidente fatal en Tempe por parte de la Junta Nacional de Seguridad en el Transporte resaltan el grave "problema de traspaso" en la automatización de vehículos.
La primera regla para volar con seguridad: presta atención, incluso cuando creas que no es necesario. Según una revisión de 1994 realizada por la Junta Nacional de Seguridad en el Transporte, 31 de los 37 accidentes graves que ocurrieron en los transportistas aéreos estadounidenses entre 1978 y 1990 involucraron un “control inadecuado”. Los pilotos, oficiales y otros miembros de la tripulación no verificaron los instrumentos, confirmaron las entradas o hablaron cuando detectaron un error. Durante el período de ese estudio, la aviación había entrado en la era de la automatización, como informó Maria Konnikova para The New Yorker en 2014. Los controles de la cabina que antes requerían una vigilancia constante ahora se mantenían solos y solo solicitaban la intervención humana según fuera necesario. La idea era reducir el margen de error a través de la precisión de las máquinas, y ese fue el efecto, en algunos aspectos. Pero a medida que los aviones volaban cada vez más, los pilotos se volvieron más complacientes. Las computadoras habían introducido un nuevo problema: la peligrosa expectativa de que un operador humano pueda tomar el control de una máquina automatizada en los momentos previos al desastre cuando su atención no es muy necesaria.
Décadas más tarde, un nuevo informe de la NTSB está señalando el mismo "problema de transferencia", esta vez en el contexto de un automóvil Uber autónomo. El jueves, la NTSB publicó sus hallazgos preliminares de la investigación federal sobre un accidente fatal de un vehículo Uber autónomo en Tempe, Arizona, en la noche del 18 de marzo. El informe encontró que los sensores en el Volvo XC-90 SUV habían detectado Elaine Herzberg, de 49 años, unos seis segundos antes de que el vehículo la golpeara cuando cruzaba una carretera de siete carriles que, por lo demás, estaba vacía. Pero el vehículo, que conducía en modo autónomo con un operador de respaldo al volante, no se detuvo. Su sistema de frenado de emergencia automático equipado de fábrica había sido desactivado, encontraron los investigadores. Uber también apagó su propia función de frenado de emergencia mientras el sistema de conducción autónoma estaba encendido, para "reducir el potencial de comportamiento errático", según el informe. Las imágenes de video mostraron al conductor de respaldo mirando hacia abajo inmediatamente antes de que el auto chocara. En una entrevista con la NTSB, la operadora, Rafaela Vásquez, dijo que estaba monitoreando la "interfaz de conducción autónoma", no su teléfono inteligente, como se había especulado en informes anteriores. En ausencia de cualquier sistema de frenado de emergencia automatizado, la compañía esperaba que el conductor de respaldo interviniera en el momento de la notificación para evitar un choque. Pero en este caso, el operador humano frenó solo después de la colisión. Herzberg fue asesinado. En mi investigación de marzo sobre el programa de prueba de vehículos autónomos de Uber, tres exempleados que trabajaban como operadores de respaldo describieron un ambiente de trabajo arduo que generaba agotamiento, aburrimiento y una falsa sensación de seguridad en el sistema de conducción autónoma. Antes del accidente de Tempe, los conductores de Uber en Tempe, Phoenix, Pittsburgh y San Francisco trabajaban en turnos de 8 a 10 horas conduciendo "bucles" repetitivos con pocos descansos. No conducían, sino el automóvil, mientras que se esperaba que los operadores mantuvieran la vista en la carretera y las manos sobre el volante. Había una política estricta de no usar teléfonos celulares. “Fue fácil volverse complaciente con el sistema cuando estás allí por tanto tiempo”. Hacia finales de 2017, mientras Uber aumentaba su ambición de acumular millas de prueba, la unidad de desarrollo AV cambió de una política de tener dos operadores de respaldo en el automóvil en todo momento a solo uno. Se suponía que los operadores solos no debían tocar la interfaz de la computadora, que mostraba la vista LiDAR del automóvil y les permitía tomar notas, sin detener el automóvil primero. Pero a veces era difícil no hacerlo, dijo Ryan Kelley, un ex operador que trabajó en Pittsburgh de 2017 a 2018. “Era agradable mirar para que pudieras ver si el auto estaba viendo lo que estabas y si iba a detenerse. ”, me dijo a través de un mensaje de texto. Además, sin una segunda persona que se mantuviera alerta y sin sus ojos adicionales en el camino, "era fácil volverse complaciente con el sistema cuando uno está allí por tanto tiempo", dijo Ian Bennett, un ex operador de respaldo de Uber que también Trabajó en Pittsburgh de 2016 a 2017. Especialmente a medida que mejoraba el rendimiento del automóvil: "Cuando no sucede nada extraño con el automóvil durante meses, es difícil no acostumbrarse y mantenerse alerta al 100 por ciento".
En marzo, hablé con Bennett, Kelley y otro antiguo operador de respaldo anónimo con sede en Tempe. Todos estuvieron de acuerdo en que la fatalidad podría haberse evitado si se hubiera tenido más en cuenta estos factores humanos. Missy Cummings, directora del Laboratorio de Autonomía y Humanos de la Universidad de Duke y ex piloto de combate de la Marina de los EE. UU., ha dedicado su carrera a comprender esta dinámica. Los resultados de los hallazgos de la NTSB apuntan a una marcada falta de comunicación entre el automóvil y el ser humano dentro del vehículo, Cummin