Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 569

Incidentes Asociados

Incidente 3624 Reportes
Picture of Woman on Side of Bus Shamed for Jaywalking

Loading...
Resumen de 2018: 10 fallas de IA
medium.com · 2018

En diciembre pasado, Synced compiló su primer resumen de "Fallas de inteligencia artificial" de los errores de IA del año anterior. La IA ha logrado un progreso notable y muchos científicos sueñan con crear el algoritmo maestro propuesto por Pedro Domingos, que puede resolver todos los problemas imaginados por los humanos. Sin embargo, es inevitable que los investigadores, las tecnologías incipientes y los datos sesgados también produzcan errores no previstos por los humanos.

Es por eso que una revisión de las fallas de la IA es necesaria y significativa: el objetivo del artículo no es minimizar o burlarse de los resultados de investigación y desarrollo, sino echar un vistazo a lo que salió mal con la esperanza de que podamos hacerlo mejor la próxima vez.

Sincronizó 10 fallas de IA de 2018.

Rostro de multimillonario chino identificado como peatón imprudente

La policía de tráfico de las principales ciudades chinas está utilizando la IA para abordar los cruces imprudentes. Despliega cámaras inteligentes que utilizan técnicas de reconocimiento facial en las intersecciones para detectar e identificar a los peatones imprudentes, cuyos nombres y rostros parcialmente oscurecidos luego aparecen en una pantalla pública.

Sin embargo, el sistema de inteligencia artificial en la ciudad portuaria sureña de Ningbo se avergonzó recientemente cuando "reconoció" falsamente una foto del multimillonario chino Mingzhu Dong en un anuncio en un autobús que pasaba como un peatón imprudente. El error se volvió viral en las redes sociales chinas y la policía de Ningbo se disculpó. Dong no se inmutó, publicando en Weibo: “Este es un asunto trivial. Viajar seguro es más importante”.

El investigador de aprendizaje profundo de CloudWalk, Xiang Zhou, le dijo a Synced que la falta de detección en vivo del algoritmo era el problema probable. "La detección en vivo a esta distancia es un desafío, reconocer una imagen como una persona real es bastante común ahora".

El rostro del multimillonario chino Mingzhu Dong en una pantalla pública.

Coche autónomo de Uber mata a un peatón

En la primera muerte peatonal conocida relacionada con un vehículo autónomo en una vía pública, un SUV autónomo de Uber atropelló y mató a una peatona el 28 de marzo en Tempe, Arizona. El vehículo de Uber estaba en modo autónomo, con un conductor de seguridad humana al volante.

¿Entonces qué pasó? Uber descubrió que su software de conducción autónoma decidió no tomar ninguna medida después de que los sensores del automóvil detectaran al peatón. El modo autónomo de Uber desactiva el sistema de frenado automático de emergencia instalado de fábrica de Volvo, según el informe preliminar de la Junta Nacional de Seguridad en el Transporte de EE. UU. sobre el accidente.

A raíz de la tragedia, Uber suspendió las pruebas de conducción autónoma en las ciudades de América del Norte, y Nvidia y Toyota también detuvieron sus pruebas de conducción autónoma en los EE. UU. Ocho meses después del accidente, Uber anunció planes para reanudar las pruebas en carretera de conducción autónoma en Pittsburgh, aunque el futuro de la conducción autónoma de la empresa sigue siendo incierto.

Captura de pantalla de ABC 15 del accidente mortal de Uber.

IBM Watson se queda corto en atención médica

“Este producto es una mierda”, escribió un médico del Hospital Júpiter de Florida con respecto al programa insignia de inteligencia artificial de IBM, Watson, según documentos internos obtenidos por Stat. Originalmente una máquina de preguntas y respuestas, IBM ha estado explorando las capacidades de IA de Watson en una amplia gama de aplicaciones y procesos, incluida la atención médica. En 2013, IBM desarrolló la primera aplicación comercial de Watson para la recomendación de tratamientos contra el cáncer, y la empresa ha asegurado una serie de asociaciones clave con hospitales y centros de investigación durante los últimos cinco años. Pero Watson AI Health no ha impresionado a los médicos. Algunos se quejaron de que dio recomendaciones incorrectas sobre tratamientos contra el cáncer que podrían causar consecuencias graves e incluso fatales.

Después de pasar años en el proyecto sin avances significativos, se informa que IBM está reduciendo Watson Health y despidiendo a más de la mitad del personal de la división.

La herramienta de reclutamiento de Amazon AI tiene sesgo de género

Según se informa, Amazon HR utilizó un software de reclutamiento habilitado para IA entre 2014 y 2017 para ayudar a revisar los currículos y hacer recomendaciones. Sin embargo, se descubrió que el software era más favorable para los candidatos masculinos porque su modelo se entrenó en los currículos enviados a Amazon durante la última década, cuando se contrataron muchos más candidatos masculinos.

Según se informa, el software degradó los currículos que contenían la palabra "mujeres" o insinuaba que la solicitante era mujer, por ejemplo, porque había asistido a una universidad para mujeres. Desde entonces, Amazon ha abandonado el software. La compañía no negó haber usado la herramienta para producir recomendaciones, pero dijo que nunca se usó para evaluar candidatos.

DeepFakes revela el lado indecoroso de la IA

El pasado mes de diciembre aparecieron varios videos porno en Reddit “presentando” a las principales celebridades femeninas internacionales. El usuario “DeepFakes” empleó redes adversarias generativas para intercambiar las caras de las celebridades con las de las estrellas porno. Si bien la tecnología de intercambio de rostros ha estado en desarrollo durante años, el método de DeepFakes demostró que cualquier persona con suficientes imágenes faciales ahora podría producir sus propios videos falsos altamente convincentes.

Los videos falsos de aspecto realista de personas conocidas inundaron Internet durante 2018. Si bien el método técnicamente no es un "fracaso", sus peligros potenciales son graves y de gran alcance: si la evidencia del video ya no es creíble, esto podría empeorar aún más.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd