Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 864

Incidentes Asociados

Incidente 499 Reportes
AI Beauty Judge Did Not Like Dark Skin

Loading...
Un concurso de belleza fue juzgado por IA y a los robots no les gustaba la piel oscura
theguardian.com · 2016

El primer concurso internacional de belleza decidido por un algoritmo ha generado controversia luego de que los resultados revelaran un factor evidente que vincula a los ganadores.

Se suponía que el primer concurso internacional de belleza juzgado por "máquinas" utilizaría factores objetivos como la simetría facial y las arrugas para identificar a los concursantes más atractivos. Después del lanzamiento de Beauty.AI este año, aproximadamente 6000 personas de más de 100 países enviaron fotos con la esperanza de que la inteligencia artificial, respaldada por algoritmos complejos, determinara que sus rostros se parecían más a la "belleza humana".

Pero cuando llegaron los resultados, los creadores se sintieron consternados al ver que había un factor evidente que vinculaba a los ganadores: a los robots no les gustaban las personas de piel oscura.

De los 44 ganadores, casi todos eran blancos, unos pocos eran asiáticos y solo uno tenía piel oscura. Eso a pesar del hecho de que, aunque la mayoría de los concursantes eran blancos, muchas personas de color enviaron fotos, incluidos grandes grupos de India y África.

La controversia resultante ha provocado debates renovados sobre las formas en que los algoritmos pueden perpetuar los sesgos, produciendo resultados no deseados y, a menudo, ofensivos.

Cuando Microsoft lanzó el chatbot "millennial" llamado Tay en marzo, rápidamente comenzó a usar lenguaje racista y a promover puntos de vista neonazis en Twitter. Y después de que Facebook eliminó a los editores humanos que habían curado noticias de "tendencia" el mes pasado, el algoritmo inmediatamente promovió historias falsas y vulgares en las noticias, incluido un artículo sobre un hombre masturbándose con un sándwich de pollo.

Facebook despide al equipo de tendencias y el algoritmo sin humanos se vuelve loco Leer más

Si bien el concurso de belleza aparentemente racista ha provocado bromas y burlas, los expertos en informática y los defensores de la justicia social dicen que en otras industrias y arenas, el uso creciente de sistemas de inteligencia artificial prejuiciosos no es motivo de risa. En algunos casos, puede tener consecuencias devastadoras para las personas de color.

Beauty.AI, que fue creado por un grupo de "aprendizaje profundo" llamado Youth Laboratories y respaldado por Microsoft, se basó en grandes conjuntos de datos de fotos para construir un algoritmo que evaluara la belleza. Si bien hay una serie de razones por las que el algoritmo favoreció a las personas blancas, el principal problema fue que los datos que utilizó el proyecto para establecer estándares de atractivo no incluían suficientes minorías, dijo Alex Zhavoronkov, director científico de Beauty.AI.

Aunque el grupo no construyó el algoritmo para tratar la piel clara como un signo de belleza, los datos de entrada llevaron efectivamente a los jueces del robot a llegar a esa conclusión.

Facebook Twitter Pinterest Ganadoras del concurso Beauty.AI en la categoría de mujeres de 18 a 29 años. Fotografía: http://winners2.beauty.ai/#win

“Si no tiene tantas personas de color dentro del conjunto de datos, es posible que tenga resultados sesgados”, dijo Zhavoronkov, quien dijo que estaba sorprendido por los ganadores. “Cuando estás entrenando un algoritmo para reconocer ciertos patrones… es posible que no tengas suficientes datos o que los datos estén sesgados”.

La explicación más simple para los algoritmos sesgados es que los humanos que los crean tienen sus propios sesgos profundamente arraigados. Eso significa que, a pesar de las percepciones de que los algoritmos son de alguna manera neutrales y únicamente objetivos, a menudo pueden reproducir y amplificar los prejuicios existentes.

Los resultados de Beauty.AI ofrecen “la ilustración perfecta del problema”, dijo Bernard Harcourt, profesor de derecho y ciencias políticas de la Universidad de Columbia que ha estudiado la “vigilancia predictiva”, que depende cada vez más de las máquinas. “La idea de que se te pueda ocurrir una concepción de la belleza culturalmente neutra y racialmente neutra es simplemente alucinante”.

El caso es un recordatorio de que “los humanos realmente están pensando, incluso cuando se presenta como algoritmos y creemos que es neutral y científico”, dijo.

Los grupos de libertad civil han expresado recientemente su preocupación de que las herramientas informáticas de pronóstico de las fuerzas del orden público, que utilizan datos para predecir dónde ocurrirán futuros delitos, se basen en estadísticas defectuosas y puedan exacerbar las prácticas policiales perjudiciales y con prejuicios raciales.

“Son datos contaminados que producen resultados contaminados”, dijo Malkia Cyril, directora ejecutiva del Center for Media Justice.

Una investigación de ProPublica a principios de este año descubrió que el software utilizado para predecir futuros delincuentes está sesgado contra las personas negras, lo que puede conducir a sentencias más severas.

“Eso es realmente una cuestión de la vida de alguien que está en juego”, dijo Sorelle Friedler, profesora de informática en Haverford College.

Un problema importante, dijo Friedler, es que los grupos minoritarios por naturaleza a menudo están subrepresentados en los conjuntos de datos, lo que significa que los algoritmos pueden llegar a conclusiones inexactas para esas poblaciones y los creadores no lo detectarán. Por ejemplo, dijo, un algoritmo que estaba sesgado contra los nativos americanos podría considerarse un éxito dado que son solo el 2% de la población.

“Podrías tener una tasa de precisión del 98%. Uno pensaría que ha hecho un gran trabajo con el algoritmo”.

Friedler dijo que hay formas proactivas en que se pueden ajustar los algoritmos

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd