Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 1927

Incidentes Asociados

Incidente 2165 Reportes
WeChat’s Machine Translation Gave a Racist English Translation for the Chinese Term for “Black Foreigner”

Loading...
La aplicación más popular de China se disculpa después de traducir 'Black Foreigner' como la palabra N
gizmodo.com · 2017

Después de ofreciendo un insulto racista como traducción de la frase "extranjero negro".

Ann James, una directora de teatro negra que vive en Shanghái, envió un mensaje a sus colegas en inglés el miércoles para decirles que llegaba tarde. Cuando un compañero de trabajo respondió en chino, WeChat tradujo su mensaje al inglés como "El negro llega tarde". Como explica Sixth Tone, "hei laowai", el término que el compañero de trabajo en realidad utilizado, es una frase neutra que significa "extranjero negro". Pero hasta que se planteó el problema después del rudo despertar de James, WeChat a veces lo traducía como la palabra n.

WeChat envió a Sixth Tone la siguiente disculpa, pero no dio más explicaciones: “Lamentamos mucho la traducción inapropiada. Después de recibir los comentarios de los usuarios, solucionamos el problema de inmediato”. La plataforma cuenta con la asombrosa cifra de 700 millones de usuarios en todo el mundo y, en China, se utiliza para todo desde reservar boletos de avión hasta pagar facturas de servicios públicos y comunicaciones de la oficina.

WeChat confirmó que su software utiliza traducción automática neuronal, IA que ha sido entrenada en grandes cantidades de texto para obtener nuevo vocabulario y, lo que es más importante, discernir los contextos específicos en los que usar estas nuevas palabras. Esa segunda parte puede ser lo que desencadenó el insulto. De [Sixth Tone] (http://www.sixthtone.com/news/1000991/wechat-apologizes-for-translating-black-foreigner-as-n-word):

Un medio de comunicación local en inglés, That's Shanghai, informó la historia y descubrió que el traductor dio traducciones neutrales en algunos casos, pero usó el insulto cuando la frase en cuestión incluía un término negativo, como "tarde" o "perezoso". Las propias pruebas de Sixth Tone el miércoles por la noche encontraron resultados similares.

Reconocer patrones es el núcleo de la inteligencia artificial del lenguaje. La IA de procesamiento de lenguaje neuronal detecta patrones entre palabras asociadas y luego los escupe. En 2016, por ejemplo, los investigadores usaron algoritmos entrenados en el texto de Google News para descubrir asociaciones con las noticias. rastreador estaba recogiendo. Como determinó el algoritmo, "Emily" es para "Ebony" lo que "panqueques" son para "pollo frito". En otro caso, encontró que "hombre" es para "mujer" lo que "médico" es para "enfermera".

Básicamente, así es como se "enseña" a la IA a ser racista. AI literaliza las connotaciones negativas. Si las frases "extranjero negro" o "persona negra" se usan como insultos junto con palabras como "perezoso" o "lento" en el texto de origen, la IA detecta esos patrones y los hace explícitos. Todo lo que hace la IA es repetir las asociaciones enterradas en su fuente.

Curiosamente, las traducciones despectivas parecen haber sido proporcionadas por un servicio no especificado, mientras que las traducciones inofensivas fueron realizadas explícitamente por Microsoft Translator. Eso es Shanghái [no se pudo replicar la traducción ofensiva] (http://www.thatsmags.com/shenzhen/post/20888/wechat-translates-black-foreigner-into-n-word) en Bing Translator o Neural Machine de Microsoft Sistema de traducción. "Hei laowai", incluso cuando se combina con palabras como "perezoso" o "grosero", todavía produce "extranjero negro". Se podría inferir que la plataforma de Microsoft ya eliminó el insulto o que esa asociación nunca se había hecho.

El procesamiento del lenguaje neuronal se inventó para que la IA pudiera hablar y pensar más como humanos. Lamentablemente, están aprendiendo lo peor de lo que ofrecemos.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd