Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 1761

Incidentes Asociados

Incidente 2088 Reportes
Tesla Phantom Braking Complaints Surged, Allegedly Linked to Tesla Vision Rollout

Loading...
Los Tesla están frenando sin razón, pero ese no es el único problema del piloto automático
gizmodo.com.au · 2022

La Administración Nacional de Seguridad del Tráfico en las Carreteras (NHTSA) ha publicado un informe condenatorio sobre los sistemas de asistencia al conductor de nivel 2 de Tesla, llamados Autopilot y Full Self-Driving. Más de 750 propietarios de Tesla informaron que sus vehículos se detuvieron misteriosamente en las carreteras sin una razón clara. Si bien eso debería ser una preocupación para Tesla, tampoco es el único problema de seguridad al que se ha enfrentado la tecnología semiautónoma del fabricante de automóviles.

Desde la introducción de funciones con nombres como "piloto automático" y "conducción totalmente autónoma", Tesla se ha enfrentado a críticas por exagerar las capacidades de lo que todavía son simplemente sistemas de asistencia al conductor que aún requieren la vigilancia constante de la persona detrás del volante. Sin embargo, las preocupaciones lingüísticas son solo una parte del problema; la base misma de la tecnología ha estado plagada de fallas que están siendo descubiertas por los consumidores comunes que prueban el software en la vía pública.

En este problema de frenado fantasma más reciente, la NHTSA solicitó más información a Tesla sobre las 750 quejas. De la Prensa Asociada:

En la carta, NHTSA solicita la velocidad inicial de cuando los autos comenzaron a frenar, la velocidad final y la desaceleración promedio. También pregunta si los sistemas automatizados detectaron un obstáculo objetivo y si Tesla tiene un video de los incidentes de frenado.

La agencia ahora está buscando información sobre reclamos de garantía por frenado fantasma, incluidos los nombres de los propietarios y las reparaciones que se realizaron. También busca información sobre los sensores de Tesla, cualquier prueba o investigación sobre los problemas de frenado, o si se realizaron modificaciones.

La carta se centra en las pruebas de Tesla de los sistemas automatizados cuando se trata de detectar puentes de metal, curvas en forma de S, tráfico que se aproxima y cruza, y diferentes tamaños de vehículos, incluidos camiones grandes. La agencia también quiere información sobre cómo las cámaras manejan los reflejos, las sombras, el resplandor y el bloqueo debido a la nieve o la lluvia intensa.

En 2017, el piloto automático condujo a un hombre contra una barrera de hormigón a 113 km/h, un accidente mortal; Se descubrió que el conductor había estado usando su teléfono celular y es posible que no se haya dado cuenta de que su Tesla había dado un giro brusco. Sin embargo, la Junta Nacional de Seguridad en el Transporte descubrió que, en este caso, era probable que el piloto automático de Tesla ni siquiera hubiera sido programado para reconocer barreras de concreto y, por lo tanto, no estaría programado para detenerse ante una.

La incapacidad de reconocer ciertos objetos resultó en la muerte de dos conductores cuyos vehículos no sabían detenerse para los remolques de tractores. Los Tesla tampoco sabían cómo detenerse para los vehículos de emergencia que podrían haber estado estacionados al costado de la carretera o en un carril de tráfico, lo que resultó en al menos 12 accidentes reportados. Cuando se lanzó Full Self-Driving Beta, la calidad de los giros a la izquierda de un Tesla disminuyó a medida que los usuarios continuaban probando el software; los autos también apuntaron a carriles llenos y rasparon contra arbustos. Consumer Reports incluso comparó FSD Beta con un conductor ebrio.

Por supuesto, no podemos ignorar el componente humano en estas situaciones; si los conductores hubieran estado prestando atención, probablemente se habrían dado cuenta del comienzo de una situación peligrosa y podrían realizar maniobras evasivas para evitar un choque. Después de todo, técnicamente se supone que los conductores deben tener las manos en el volante y el trasero en un asiento para activar el software de asistencia al conductor de Tesla.

Pero como Raj Rajkumar, profesor de ingeniería eléctrica e informática en la Universidad Carnegie Mellon que estudia vehículos automatizados, le dijo a CBS News: “Es muy fácil pasar por alto la presión de la dirección. Ha estado ocurriendo desde 2014. Hemos estado discutiendo esto durante mucho tiempo”. En Jalopnik cubrimos todo tipo de formas en que un conductor podría agregar presión en el volante sin tener las manos en el volante. Y ese sensor de presión solo se agregó después de que se llamara a Tesla; la empresa inicialmente evitó instalar uno para ahorrar dinero.

Independientemente de lo que encuentre la NHTSA en este nuevo caso de frenado fantasma, el hecho mismo de que los sistemas semiautónomos de asistencia al conductor de Tesla se enfrenten constantemente a tanto escrutinio debería ser una señal de alerta para el propio fabricante de automóviles, los consumidores, otros conductores y los organismos reguladores. También debería plantear preguntas importantes a medida que continuamos con esta tendencia de vehículos autónomos: ¿Cuántas pruebas se requieren antes de que un vehículo semiautónomo salga a la carretera? ¿Cuántas regulaciones deberían exigirse para garantizar la seguridad de estas tecnologías? ¿Y por qué usamos controladores convencionales como probadores beta para software que deja perplejos a todos, desde ingenieros hasta especialistas en ética?

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd