Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2053

Incidentes Asociados

Incidente 3401 Reporte
Honda's CMBS False Positives Allegedly Caused Accidents to Customers

Loading...
La inteligencia artificial pisa los frenos
mindmatters.ai · 2021

Después de haber donado su Toyota Camry 1994 muy usado a una organización benéfica, conduce un sedán Honda 2020 completamente nuevo en una calle principal, disfruta de la comodidad del aire acondicionado en un día soleado, con el servicio de radio satelital que transmite melodías de la banda sonora de su vida. Entonces, ¡BAM!

En medio segundo, el automóvil reduce la velocidad de 45 a 20 — y nunca tocó el pedal del freno. Nunca lo vio venir, pero su cuello todavía le recuerda dolorosamente su lesión por latigazo cervical.

Un familiar cercano experimentó exactamente este escenario hace apenas un mes. Nunca tocó el pedal del freno.

¿Qué sucedió? El representante de ventas del concesionario no había explicado todas y cada una de las características de este auto posmoderno y ciertamente no advirtió sobre los riesgos de su inteligencia artificial (IA). Resultó que el automóvil está equipado con todo tipo de inteligencia artificial, incluido el Sistema de frenado de mitigación de colisión (CMBS). El CMBS había pisado los frenos sin previo aviso.

Sistema de frenado para evitar colisiones frontales

El CMBS de Honda es parte del sistema general de prevención de colisiones del automóvil. El CMBS utiliza una unidad de radar de ondas milimétricas montada cerca del parachoques delantero del automóvil junto con una cámara montada cerca del espejo retrovisor. El radar y la cámara escanean hacia adelante en un rango de 300 pies, en busca de riesgos de posibles colisiones con personas u otras cosas. La información de estos dispositivos se alimenta a una computadora. Si se detecta un obstáculo, el CMBS alertará al conductor y potencialmente aplicará frenos ligeros o fuertes automáticamente.

Como un conductor sorprendido describió fríamente la desventaja: el CMBS "aplica presión de freno cuando se determina una colisión inevitable o cuando la mente robótica de su automóvil crea una situación 'inevitable' de la nada".

Informe de demandas colectivas sobre problemas comunes

Buscar en Internet a través del motor de búsqueda Duckduckgo revela que este problema de frenazo es bien conocido y no tiene una solución conocida. Una demanda colectiva consolidada, Cadena v. American Honda Motor Co., pendiente en un tribunal federal de California, alega que el fabricante es responsable de violar varios estados ' Prácticas comerciales desleales y leyes de fraude al consumidor, así como por incumplimiento de la garantía implícita y negligencia. Los conductores de los EE. UU. se han unido a la demanda y buscan una orden judicial contra el fabricante, así como daños por sus lesiones personales y daños a la propiedad.

Uno de los demandantes describió el mismo problema que experimentó mi familiar:

Conducía a 45 millas por hora en una carretera plana y recta, sin otros autos alrededor. Los frenos se pusieron y luego se soltaron. No había nada delante de mí o detrás de mí. Creo que algo anda mal con el sistema de frenado de mitigación de colisión. Me duele mucho la espalda y el cuello. No hubo advertencias del sistema.

Otras personas sufrieron problemas peores, tales como:

El sistema de detección de colisiones se activa falsamente de manera regular debido al tráfico opuesto. Golpea los frenos a fondo, anulando el acelerador; ha ocurrido dos veces en medio de una intersección y en una recta de doble sentido sin ningún vehículo en mi carril. He tenido el coche durante 1 mes y casi he tenido 3 accidentes debido a este sistema defectuoso que ahora estoy desactivando. (NHTSA ID 11002642, fecha del informe: 1 de octubre de 2018)

Como se alega en una demanda presentada en Illinois,, otros defectos problemáticos en la tecnología de detección incluyen mostrar numerosos mensajes de advertencia de una indicación falsa de un peligro y alertar a los conductores para que apliquen los frenos inmediatamente sin razón para hacerlo. Estos mensajes distraen al conductor de mirar la carretera mientras intenta leer el mensaje en el panel de visualización. La advertencia en realidad aumenta el riesgo del conductor al desviar la atención del (presuntamente) peligro inminente.

Las fallas de IA son errores humanos incorporados

Al menos cuatro cuestiones quedan claras. Primero, el problema del frenazo es una falla de la IA. Principalmente, es el sistema de software, no el componentes de hardware, que deciden cuándo se activa CMBS. Eso significa que las decisiones de frenado automático se derivan de las elecciones de los programadores. Los programas de software recopilan datos y toman decisiones solo en la medida en que los programadores pueden imaginar los tipos de problemas que el software debe resolver.

Los propios programas pueden ser imperfectos, ya sea por diseño o por errores en la codificación, llamados casualmente errores. El simple hecho de llamar a un sistema "inteligente" no significa que cumplirá su propósito a la perfección o incluso muy bien.

El software de IA también es potencialmente vulnerable a la piratería y corrupción intencional. Además, los sistemas de IA que dependen del GPS dependen de un sistema imperfecto susceptible a su propio hardware, software y problemas ambientales terrestres. Cualquiera que haya "perdido la señal GPS" mientras buscaba una dirección puede relacionarse con la confusión que experimentaría la guía del controlador AI.

AI y el Gobierno-Complejo Industrial

En segundo lugar, durante años el gobierno ha estado presionando a la industria automotriz para que implemente IA para la prevención de accidentes. Por ejemplo, en una presentación de 2017 en el Registro Federal, [82 FR 8391,](https://www.federalregister.gov/documents/2017/01/25/2017-01542/federal-motor-vehicle-safety-standards -frenado de emergencia automático), la Administración Nacional de Seguridad del Tráfico y Carreteras de EE. UU. (NHTSA) observó:

El 94 por ciento de los accidentes automovilísticos se pueden atribuir a elecciones humanas (p. ej., elecciones sobre el uso del cinturón de seguridad o el consumo de alcohol) o errores. Si hubiera medios tecnológicos para evitar que esas elecciones o comportamientos humanos afecten la seguridad del vehículo, podríamos prevenir o mitigar 19 de cada 20 accidentes en la carretera.

La NHTSA pronostica con optimismo un éxito increíble en la reducción de choques usando IA:

Los vehículos automatizados, que dependen de tecnologías como el frenado automático de emergencia, prometen ser los medios que evitarán que la elección o el error humanos provoquen accidentes. Es por eso que la NHTSA y el Departamento de Transporte se han centrado en tratar de acelerar el desarrollo y la implementación seguros de vehículos altamente automatizados y conectados. La automatización y la conectividad de los vehículos podrían reducir drásticamente las muertes en las carreteras.

La presión del gobierno significa que la industria automotriz puede justificar sus sistemas de inteligencia artificial ampliados: El gobierno nos obligó a hacerlo. El consenso entre el gobierno y la industria se convierte en la explicación de los sistemas que no son perfectos y que en realidad pueden poner en peligro a las personas, pero que son obligatorios. Los ciudadanos privados casi no tienen participación en la elaboración de políticas o las opciones de programación.

¿Una solución de frenado automatizado para todos?

En tercer lugar, el problema de frenado aleatorio se deriva de la arrogancia de los diseñadores humanos inyectada en el software. Decidir cuándo aplicar los frenos requiere conocer y responder a muchas variables impredecibles en un entorno en constante cambio. Los conductores humanos inteligentes aprenden a evaluar la velocidad y la distancia, las condiciones de la carretera, incluidas la tracción y la inclinación, y las acciones estimadas o esperadas de otros vehículos que vienen de cualquier dirección, por nombrar algunos factores, todo en tiempo real. Los conductores humanos adquieren experiencia para prever las acciones de otros conductores varios vehículos delante o directamente detrás de ellos. Los seres humanos utilizan las leyes de conducción, la señalización vial, las reglas generales y la experiencia previa en situaciones, momentos y lugares específicos.

Los programadores del sistema de IA creen que pueden crear software para cumplir o vencer a la mente humana en estas tareas, en todo momento y en todos los entornos o condiciones de conducción imaginables. Excepto por las fallas de hardware reales en el equipo, el problema de los frenazos aleatorios y otros falsos positivos son el resultado de las decisiones de los programadores sobre lo que es mejor para el conductor.

Demandas de búsqueda de fallas, no de inteligencia

Cuarto, el sistema legal estadounidense actual establece incentivos de duelo: (A) permitir que los consumidores demanden a los fabricantes de automóviles si existiera una tecnología de mitigación de accidentes y los fabricantes [no la instalaron] (https://law.justia.com/ cases/hawaii/supreme-court/1997/17339-2.html); versus (B) permitir a los consumidores demandar a los fabricantes de automóviles si la tecnología de mitigación de accidentes puede fallar y falla ocasionalmente.

Solo para confundir las cosas entre los conductores individuales y los fabricantes, algunos tribunales han sostenido que los conductores lesionados no pueden demandar a los fabricantes de automóviles por fallas de frenado de IA porque la NHTSA [no ha establecido] (https://casetext.com/case/dashi-v -nissan-n-am-inc) normas obligatorias para esos sistemas de frenado automático. Irónicamente, el nombre técnico de esta doctrina legal es “prioridad implícita de obstáculos”.

Los fabricantes se enfrentan a un escenario sin salida de responsabilidad potencial, ya sea que implementen sistemas de frenado de IA o no. Los consumidores afectados por el problema de los frenazos han demandado a los fabricantes por no advertir sobre los problemas del sistema de IA y por cometer algún tipo de engaño. La demanda colectiva de Cadena pendiente en California incluye reclamos de consumidores de “prácticas comerciales desleales” cuando Honda “vendió vehículos a [personas] a pesar de conocer un defecto de seguridad en los vehículos, no revelar su conocimiento del defecto y sus riesgos concomitantes en el punto de venta o de otra manera”. Los reclamos relacionados apuntan a un incumplimiento de [garantía implícita de comerciabilidad] (https://legal-dictionary.thefreedictionary.com/Warranty+of+merchantability) (básicamente, alegando que el automóvil no funciona como debería desde el punto de vista razonable del comprador). Punto de vista).

La mordida de sonido del peor de los casos de Tesla

El fundador y CEO de Tesla Elon Musk twitteó el 17 de abril de 2021, algunas buenas noticias sobre los sistemas avanzados de inteligencia artificial de la compañía: "Tesla con el piloto automático activado ahora se acerca a 10 veces menos posibilidades de accidente que un vehículo promedio". Unos días después, un Tesla 2019 en Texas, del que se sospechaba que estaba en modo "sin conductor", [se estrelló contra un árbol](https://www.theblaze.com/news/driverless-tesla-crashes-in-texas-killing -2) y estalló en llamas, matando a los dos ocupantes.

El fuego ardió durante horas mientras los socorristas luchaban sin éxito, ya que la batería del automóvil seguía encendiendo las llamas. Según se informa, los bomberos tuvieron que ponerse en contacto con la empresa Tesla para saber cómo extinguir el incendio.

Pensando en voz alta: las familias de los ocupantes posiblemente podrían demandar a Tesla por un producto defectuoso, por publicidad y literatura engañosas, y por no advertir sobre posibles fallas en el sistema de inteligencia artificial.

Las demandas, sin embargo, no consuelan a nadie. Mientras tanto, el intento de la sociedad de transferir la responsabilidad a otros, ya sea el gobierno, las empresas o la tecnología de inteligencia artificial y sus diseñadores, inspira una mentalidad de víctima impotente que no es saludable.

¿Deberán los seres humanos ser tratados como sistemas biológicos servido, o dirigido, por máquinas en [piloto automático] (https://robohub.org/pure-autonomy-googles-new-purpose-built-self-driving-car/)? ¿O deben los seres humanos luchar por el conocimiento personal, la competencia y la libertad?

Nota: El dibujo lineal de (1) un automóvil sin conductor [con sensores] (https://thenounproject.com/term/self-driving-car-sensor/1385366/) y (2) de un automóvil sin conductor [frenando] (https://thenounproject.com/term/self-driving-car-brake/1385373/) para un peatón son cortesía de Noun Project. (3) El interior de un automóvil autónomo Tesla es cortesía de jurvetson (Steve Jurvetson) [(CC BY 2.0)](https:// creativecommons.org/licenses/by/2.0), a través de Wikimedia Commons.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd