Incidentes Asociados
Después de ofreciendo un insulto racista como traducción de la frase "extranjero negro".
Ann James, una directora de teatro negra que vive en Shanghái, envió un mensaje a sus colegas en inglés el miércoles para decirles que llegaba tarde. Cuando un compañero de trabajo respondió en chino, WeChat tradujo su mensaje al inglés como "El negro llega tarde". Como explica Sixth Tone, "hei laowai", el término que el compañero de trabajo en realidad utilizado, es una frase neutra que significa "extranjero negro". Pero hasta que se planteó el problema después del rudo despertar de James, WeChat a veces lo traducía como la palabra n.
WeChat envió a Sixth Tone la siguiente disculpa, pero no dio más explicaciones: “Lamentamos mucho la traducción inapropiada. Después de recibir los comentarios de los usuarios, solucionamos el problema de inmediato”. La plataforma cuenta con la asombrosa cifra de 700 millones de usuarios en todo el mundo y, en China, se utiliza para todo desde reservar boletos de avión hasta pagar facturas de servicios públicos y comunicaciones de la oficina.
WeChat confirmó que su software utiliza traducción automática neuronal, IA que ha sido entrenada en grandes cantidades de texto para obtener nuevo vocabulario y, lo que es más importante, discernir los contextos específicos en los que usar estas nuevas palabras. Esa segunda parte puede ser lo que desencadenó el insulto. De [Sixth Tone] (http://www.sixthtone.com/news/1000991/wechat-apologizes-for-translating-black-foreigner-as-n-word):
Un medio de comunicación local en inglés, That's Shanghai, informó la historia y descubrió que el traductor dio traducciones neutrales en algunos casos, pero usó el insulto cuando la frase en cuestión incluía un término negativo, como "tarde" o "perezoso". Las propias pruebas de Sixth Tone el miércoles por la noche encontraron resultados similares.
Reconocer patrones es el núcleo de la inteligencia artificial del lenguaje. La IA de procesamiento de lenguaje neuronal detecta patrones entre palabras asociadas y luego los escupe. En 2016, por ejemplo, los investigadores usaron algoritmos entrenados en el texto de Google News para descubrir asociaciones con las noticias. rastreador estaba recogiendo. Como determinó el algoritmo, "Emily" es para "Ebony" lo que "panqueques" son para "pollo frito". En otro caso, encontró que "hombre" es para "mujer" lo que "médico" es para "enfermera".
Básicamente, así es como se "enseña" a la IA a ser racista. AI literaliza las connotaciones negativas. Si las frases "extranjero negro" o "persona negra" se usan como insultos junto con palabras como "perezoso" o "lento" en el texto de origen, la IA detecta esos patrones y los hace explícitos. Todo lo que hace la IA es repetir las asociaciones enterradas en su fuente.
Curiosamente, las traducciones despectivas parecen haber sido proporcionadas por un servicio no especificado, mientras que las traducciones inofensivas fueron realizadas explícitamente por Microsoft Translator. Eso es Shanghái [no se pudo replicar la traducción ofensiva] (http://www.thatsmags.com/shenzhen/post/20888/wechat-translates-black-foreigner-into-n-word) en Bing Translator o Neural Machine de Microsoft Sistema de traducción. "Hei laowai", incluso cuando se combina con palabras como "perezoso" o "grosero", todavía produce "extranjero negro". Se podría inferir que la plataforma de Microsoft ya eliminó el insulto o que esa asociación nunca se había hecho.
El procesamiento del lenguaje neuronal se inventó para que la IA pudiera hablar y pensar más como humanos. Lamentablemente, están aprendiendo lo peor de lo que ofrecemos.