Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 573

Incidentes Asociados

Incidente 3624 Reportes
Picture of Woman on Side of Bus Shamed for Jaywalking

Loading...
El reconocimiento facial señala a una mujer en un anuncio de autobús por "cruzar la calle imprudentemente" en China
gizmodo.com.au · 2018

Foto: Getty

El sistema de vigilancia de China se está volviendo cada vez más omnipresente, con un estimado de 200 millones de cámaras y contando. Si bien este estado de existencia por sí solo es inquietante, es aún más preocupante que las máquinas estén arruinando incluso la tarea más simple.

La semana pasada, el rostro de Dong Mingzhu, la presidenta de un importante fabricante de acondicionadores de aire en China, se mostró en una pantalla gigante del tamaño de una cartelera en Ningbo, una importante ciudad portuaria en la provincia de Zhejiang, en el este de China, para avergonzarla públicamente por interrumpir el tráfico. ley. Zhejiang es una de las provincias que el año pasado implementó tecnología de reconocimiento facial que humilla a los ciudadanos que cruzan la calle imprudentemente colocando sus fotos en enormes pantallas LED. Pero las cámaras no captaron a Mingzhu cruzando la calle imprudentemente: identificaron una foto de ella en un anuncio de autobús, informó South China Morning Post.

Según los informes, la policía de tránsito de la ciudad anunció en una publicación de blog en Sina Weibo el miércoles que eliminó la foto y que su sistema de vigilancia se arreglaría para evitar futuras identificaciones erróneas. Y Gree Electric Appliances, la empresa para la que trabaja Mingzhu, también publicó una publicación de blog en Sina Weibo ese mismo día expresando su gratitud por la policía de tránsito de la ciudad e instando a las personas a seguir las reglas de tránsito.

Si bien la policía de tránsito aparentemente reconoció y remedió rápidamente el error de su sistema, y la respuesta de Gree fue comprensiva, este incidente aún señala un problema evidente con la adopción masiva de sistemas de reconocimiento basados en IA: la tecnología todavía es ridículamente defectuosa. Esto está lejos de ser el primer incidente en el que un algoritmo no pudo detectar los matices del mundo humano que lo rodea, y aún no se ha implementado un sistema de IA masivo que haya demostrado ser perfecto.

Marcar erróneamente a alguien por cruzar imprudentemente porque una máquina confundió un anuncio de autobús en movimiento con un ser humano tridimensional real no es tan peligroso, pero las vallas publicitarias vergonzosas no son los únicos sistemas de reconocimiento facial que proliferan en China. De hecho, la firma de investigación IHS Markit pronostica que China comprará más de las tres cuartas partes de los servidores hechos específicamente para buscar rostros en imágenes de vigilancia, informa el New York Times.

“En el pasado, todo se trataba de instinto”, dijo al Times Shan Jun, subjefe de policía en la estación de tren de Zhengzhou, donde un oficial de policía identificó a un contrabandista de heroína usando lentes de reconocimiento facial. “Si te perdiste algo, te lo perdiste”.

Las máquinas no tienen capacidad de instinto, y además de no poder diferenciar sutilezas en el mundo físico (es decir, una foto en un anuncio de una persona de carne y hueso), tampoco están libres de prejuicios. Es fácil imaginar cómo estos defectos pueden salir mal no solo cuando se usan para humillar a los peatones imprudentes, sino también para clasificar socialmente a los ciudadanos e identificar a los sospechosos de delitos.

[Poste de la mañana del sur de China]

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd