Registro de citas para el Incidente 128

Description: A Tesla Sedan operating on Autopilot mode was not able to center itself on the road and drove over a yellow dividing curb in Redmond, Washington, causing minor damage to the vehicle’s rear suspension.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial
Presunto: un sistema de IA desarrollado e implementado por Tesla, perjudicó a Eric Horvitz y Tesla drivers.

Estadísticas de incidentes

ID
128
Cantidad de informes
2
Fecha del Incidente
2017-08-01
Editores
Sean McGregor, Khoa Lam
Las empresas tecnológicas se mueven para poner barandillas éticas alrededor de la IA
wired.com · 2018

Un día del verano pasado, el director de investigación de inteligencia artificial de Microsoft, Eric Horvitz, activó la función de piloto automático de su sedán Tesla. El auto condujo por una carretera sinuosa cerca del campus de Microsoft …

La transcripción de la ética de la inteligencia artificial del bestseller #transhumancode
carloscreusmoreira.medium.com · 2019

En el verano de 2017, Eric Horvitz activó la función de piloto automático de su sedán Tesla. No tener que preocuparse por conducir el automóvil por una carretera con curvas en Redmond, Washington, permitió a Horvitz concentrarse mejor en la…

Variantes

Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.