Incidentes Asociados

Gran parte de nuestra vida está determinada por algoritmos. Desde lo que ve en su sección de noticias de Facebook, hasta los libros y chucherías que le recomienda Amazon, hasta los videos inquietantes que YouTube muestra a sus hijos, nuestra atención se analiza sistemáticamente y se vende al mejor postor.
Estas fórmulas misteriosas que nos dan forma, nos guían y nos empujan hacia la idea de otra persona sobre un resultado óptimo son opacas por diseño. Lo cual, bueno, tal vez lo hace aún más frustrante cuando resultan ser sexistas.
Ingrese a Google Translate, el servicio automatizado que hace que gran parte de la web sea comprensible para muchos de nosotros. Con soporte para 103 idiomas, el Babel Fish digital influye directamente en nuestra comprensión de idiomas y culturas diferentes a la nuestra. Al proporcionar una herramienta tan importante, Google ha asumido la responsabilidad de traducir con precisión el contenido que pasa por sus servidores.
Pero, no siempre. O, quizás más precisamente, donde existe un área gris en el idioma, Google Translate puede caer en las mismas trampas que los humanos.
Eso parece haber sido demostrado por una serie de tweets que muestran a Google Translate en el acto de género de las profesiones de tal manera que solo puede describirse como problemática.
"El turco es un idioma de género neutral", tuiteó el escritor Alex Shams. "No hay 'él' o 'ella', todo es solo 'o'. Pero mira lo que sucede cuando Google traduce al inglés".
Los resultados, que capturó en pantalla, son dolorosos. "Ella es cocinera", "él es ingeniero", "él es médico", "ella es enfermera", "él es muy trabajador", "ella es perezosa", etc.
El turco es un idioma neutro en cuanto al género. No hay "él" o "ella", todo es simplemente "o". Pero mira lo que pasa cuando Google traduce al inglés. Hilo: pic.twitter.com/mIWjP4E6xw — Alex Shams (@seyyedreza) 27 de noviembre de 2017
Y este no es un problema específico de turco a inglés. Taika Dahlbom compartió un resultado similar cuando tradujo del finlandés al inglés.
¡Mira cómo @Google Translate hace #sexismo! #finlandés tiene un pronombre en tercera persona de género neutral. Pero Google decide si un título de trabajo es bueno para ir con el pronombre de tercera persona en inglés masculino o femenino. Idea: @seyyedreza en #turco pic.twitter.com/jU9Su0JXd5 — Taika Dahlbom (@TaikaDahlbom) 28 de noviembre de 2017
Entonces, ¿qué está pasando aquí? Un portavoz de Google tuvo la amabilidad de informarnos parcialmente.
"Traducir funciona aprendiendo patrones de muchos millones de ejemplos de traducciones que se ven en la web", explicó la persona por correo electrónico. "Desafortunadamente, algunos de esos patrones pueden conducir a traducciones con las que no estamos satisfechos. Estamos investigando activamente cómo mitigar estos efectos; estos son problemas sin resolver en informática y estamos trabajando arduamente para abordar".
Esta explicación encaja con el entendimiento general que existe actualmente. Todo se reduce a esos algoritmos que impulsan los servicios impulsados por el aprendizaje automático en la web.
Esencialmente, cuando existe una cantidad incalculable de sesgos (de género o de otro tipo) en nuestra literatura y lenguaje (sesgos, como que las enfermeras son inherentemente mujeres o que los ingenieros deben ser hombres), estos pueden filtrarse en la salida de Google Translate.
Hemos visto esto antes, tan recientemente como en octubre. Fue solo el mes pasado que se detectó otro servicio de Google, la API de Cloud Natural Language, que asignaba valores negativos a declaraciones como "Soy queer" y "Soy negro".
Incluso eso no era una observación completamente nueva. Un estudio de agosto en la revista Science encontró que "la aplicación del aprendizaje automático al lenguaje humano ordinario da como resultado sesgos semánticos similares a los humanos".
Parece que, al intentar construir un traductor automático que pueda acercarse a un ser humano en su capacidad, Google pudo haber logrado detectar algunas limitaciones similares a las humanas en el camino.
Esta historia ha sido actualizada con una declaración de Google.