Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 1087

Incidentes Asociados

Incidente 5910 Reportes
Gender Biases in Google Translate

Loading...
El algoritmo que ayudó a Google Translate a volverse sexista
forbes.com · 2018

Imagen vía Twitter

Los padres conocen muy bien un desafío particular de criar niños: enseñarles a hacer lo que decimos, no lo que hacemos.

Un desafío similar ha afectado a la inteligencia artificial.

A medida que más aplicaciones y software usan IA para automatizar tareas, un modelo popular respaldado por datos, llamado "incrustación de palabras", también ha detectado prejuicios sociales arraigados.

El resultado son servicios como la traducción de idiomas que escupen esos sesgos de manera sutil pero preocupante.

A principios de este año, por ejemplo, comenzaron a surgir ejemplos de prejuicios de género en las redes sociales con Google Translate.

Intente traducir términos del turco al inglés, que tiene pronombres de género neutro, y una frase como o bir muhendis se convierte en él es un ingeniero, mientras que o bir hemsire se traduce como ella es una enfermera.

El propio servicio de traducción de Microsoft en Bing tiene un problema similar, gracias al uso del género en la gramática: piense le y la en francés, or der y die en alemán.

Cuando Bing traduce “la mesa es blanda” al alemán, ofrece el femenino die Tabelle, que hace referencia a una mesa de figuras.

“Estas asociaciones de género se proyectan en los objetos”, dice Kate McCurdy, lingüista computacional sénior de la empresa emergente de aprendizaje de idiomas Babbel en Berlín, Alemania, quien descubrió el sesgo en Bing.

“Los objetos que son gramaticalmente masculinos reciben propiedades masculinas. Es aprender a tomar los estereotipos de género y proyectarlos en todo el mundo de los sustantivos”.

Debido a la incorporación de palabras, un método popular de aprendizaje automático, los algoritmos de traducción están eliminando estos sesgos, al igual que otros servicios como la Búsqueda de Google, así como las recomendaciones de Netflix y Spotify.

“Este es un enfoque que ha despegado y está muy extendido en la industria, y por eso es tan importante cuestionar la suposición subyacente”, dice McCurdy.

La incrustación de palabras funciona vinculando palabras a un vector de números, que los algoritmos pueden usar para calcular la probabilidad. Al observar qué palabras tienden a estar alrededor de otras palabras, como "ingeniero", el modelo se puede usar para descubrir qué otra palabra encaja mejor, como "él".

El precio de aprender de montones de textos y diálogos existentes es que dichos modelos captan el desequilibrio real entre géneros cuando se trata de trabajos u oportunidades.

Un estudio de 2016 que entrenó modelos de incrustación de palabras en artículos en Google mostró estereotipos de género "en un grado inquietante", según sus investigadores.

McCurdy dice que no hay nada necesariamente malo con el modelo de incrustación de palabras en sí, pero necesita orientación y supervisión humana.

“El valor predeterminado ahora es crear estas aplicaciones y liberarlas en la naturaleza y combatir los incendios cuando salgan”, agrega. “Pero si fuéramos más deliberados sobre esto y nos tomáramos las cosas más en serio, trabajaríamos más para integrar una perspectiva más crítica”.

Las empresas que utilizan el modelo de inserción de palabras para crear servicios para los consumidores también necesitan programadores más diversos que tengan más probabilidades de notar el riesgo de sesgos antes de que surjan.

“Si nos tomamos en serio que la inteligencia artificial tome decisiones que no terminen con sesgos que no queremos reforzar, necesitamos tener personas más diversas y críticas que analicen esto antes en el proceso”.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd