Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 1092

Incidentes Asociados

Incidente 5910 Reportes
Gender Biases in Google Translate

Loading...
Google Translate ahora da traducciones femeninas y masculinas
venturebeat.com · 2018

Google está haciendo un esfuerzo para reducir el sesgo de género percibido en Google Translate, anunció hoy. A partir de esta semana, los usuarios que traduzcan palabras y frases en idiomas admitidos obtendrán traducciones tanto en femenino como en masculino; “o bir doktor” en turco, por ejemplo, ahora produce “ella es doctora” y “él es doctor” en inglés.

Actualmente, se admiten las traducciones del inglés al francés, italiano, portugués o español. Las traducciones de frases y oraciones del turco al inglés, como en el ejemplo anterior, también mostrarán los equivalentes de ambos géneros. (En el idioma turco, el pronombre "o" cubre todo tipo de tercera persona singular).

James Kuczmarski, gerente de producto de Google Translate, dijo que ya se ha comenzado a trabajar para abordar las traducciones de género no binario.

“En el transcurso de este año, ha habido un esfuerzo en Google para promover la equidad y reducir el sesgo en el aprendizaje automático”, escribió en una publicación de blog. “En el futuro, planeamos extender las traducciones específicas de género a más idiomas, lanzarlas en otras superficies de Traductor como nuestras aplicaciones de iOS y Android, y abordar el sesgo de género en funciones como el autocompletado de consultas”.

El anuncio de hoy se produce poco después de que Google bloqueó Smart Compose, una función de Gmail que sugiere automáticamente oraciones para los usuarios a medida que escriben, a partir de la sugerencia de pronombres basados en el género. Y sigue los pasos de las publicaciones en las redes sociales que pretenden mostrar el sesgo de género de las aplicaciones de traducción automática.

Los usuarios notaron que palabras como "ingeniero" y "fuerte" en algunos idiomas extranjeros tenían más probabilidades de estar asociadas con palabras masculinas correspondientes en inglés: "o bir muhendis" en Google Translate se convirtió en "él es un ingeniero", mientras que "o bir hemsire ” se tradujo como “ella es enfermera”). Está lejos de ser el único ejemplo: los teclados predictivos de Apple y Google proponen el género “policía” para completar “policía” y “vendedor” para “ventas”. Y cuando Bing de Microsoft traduce “ la mesa es blanda” al alemán, vuelve con el femenino “die Tabelle”, que hace referencia a una mesa de figuras.

Es un problema de entrenamiento de IA, explicó Kuczmarski. La incrustación de palabras, una técnica común de entrenamiento algorítmico que implica vincular palabras a un vector utilizado para calcular la probabilidad del par de idiomas de una palabra determinada, inevitablemente detecta, y en el peor de los casos, amplifica, los sesgos implícitos en el texto y el diálogo de origen. Un estudio de 2016 encontró que las incrustaciones de palabras en los artículos de Google News tendían a exhibir estereotipos de género femenino y masculino.

“Google Translate aprende de cientos de millones de ejemplos ya traducidos de la web”, escribió Kuczmarski. “Históricamente, ha proporcionado solo una traducción para una consulta, incluso si la traducción podría tener una forma femenina o masculina. Entonces, cuando el modelo produjo una traducción, sin darse cuenta reprodujo sesgos de género que ya existían. Por ejemplo: sesgaría masculino para palabras como 'fuerte' o 'doctor', y femenino para otras palabras, como 'enfermera' o 'hermosa'".

Un enfoque de género neutral para la traducción de idiomas es parte del esfuerzo más grande de Google para mitigar los prejuicios en los sistemas de IA. La compañía de Mountain View utiliza pruebas desarrolladas por su equipo de ética de IA para descubrir sesgos y ha prohibido las palabrotas, los insultos raciales y las menciones de rivales comerciales y eventos trágicos de sus tecnologías predictivas.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd