Incidentes Asociados

Google está haciendo un esfuerzo para reducir el sesgo de género percibido en Google Translate, anunció hoy. A partir de esta semana, los usuarios que traduzcan palabras y frases en idiomas admitidos obtendrán traducciones tanto en femenino como en masculino; “o bir doktor” en turco, por ejemplo, ahora produce “ella es doctora” y “él es doctor” en inglés.
Actualmente, se admiten las traducciones del inglés al francés, italiano, portugués o español. Las traducciones de frases y oraciones del turco al inglés, como en el ejemplo anterior, también mostrarán los equivalentes de ambos géneros. (En el idioma turco, el pronombre "o" cubre todo tipo de tercera persona singular).
James Kuczmarski, gerente de producto de Google Translate, dijo que ya se ha comenzado a trabajar para abordar las traducciones de género no binario.
“En el transcurso de este año, ha habido un esfuerzo en Google para promover la equidad y reducir el sesgo en el aprendizaje automático”, escribió en una publicación de blog. “En el futuro, planeamos extender las traducciones específicas de género a más idiomas, lanzarlas en otras superficies de Traductor como nuestras aplicaciones de iOS y Android, y abordar el sesgo de género en funciones como el autocompletado de consultas”.
El anuncio de hoy se produce poco después de que Google bloqueó Smart Compose, una función de Gmail que sugiere automáticamente oraciones para los usuarios a medida que escriben, a partir de la sugerencia de pronombres basados en el género. Y sigue los pasos de las publicaciones en las redes sociales que pretenden mostrar el sesgo de género de las aplicaciones de traducción automática.
Los usuarios notaron que palabras como "ingeniero" y "fuerte" en algunos idiomas extranjeros tenían más probabilidades de estar asociadas con palabras masculinas correspondientes en inglés: "o bir muhendis" en Google Translate se convirtió en "él es un ingeniero", mientras que "o bir hemsire ” se tradujo como “ella es enfermera”). Está lejos de ser el único ejemplo: los teclados predictivos de Apple y Google proponen el género “policía” para completar “policía” y “vendedor” para “ventas”. Y cuando Bing de Microsoft traduce “ la mesa es blanda” al alemán, vuelve con el femenino “die Tabelle”, que hace referencia a una mesa de figuras.
Es un problema de entrenamiento de IA, explicó Kuczmarski. La incrustación de palabras, una técnica común de entrenamiento algorítmico que implica vincular palabras a un vector utilizado para calcular la probabilidad del par de idiomas de una palabra determinada, inevitablemente detecta, y en el peor de los casos, amplifica, los sesgos implícitos en el texto y el diálogo de origen. Un estudio de 2016 encontró que las incrustaciones de palabras en los artículos de Google News tendían a exhibir estereotipos de género femenino y masculino.
“Google Translate aprende de cientos de millones de ejemplos ya traducidos de la web”, escribió Kuczmarski. “Históricamente, ha proporcionado solo una traducción para una consulta, incluso si la traducción podría tener una forma femenina o masculina. Entonces, cuando el modelo produjo una traducción, sin darse cuenta reprodujo sesgos de género que ya existían. Por ejemplo: sesgaría masculino para palabras como 'fuerte' o 'doctor', y femenino para otras palabras, como 'enfermera' o 'hermosa'".
Un enfoque de género neutral para la traducción de idiomas es parte del esfuerzo más grande de Google para mitigar los prejuicios en los sistemas de IA. La compañía de Mountain View utiliza pruebas desarrolladas por su equipo de ética de IA para descubrir sesgos y ha prohibido las palabrotas, los insultos raciales y las menciones de rivales comerciales y eventos trágicos de sus tecnologías predictivas.