Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 1924

Incidents associés

Incident 2165 Rapports
WeChat’s Machine Translation Gave a Racist English Translation for the Chinese Term for “Black Foreigner”

Loading...
L'application chinoise WeChat traduit "étranger noir" en mot N
theguardian.com · 2017

L'application de chat la plus populaire de Chine s'est excusée après que son logiciel ait utilisé le mot N pour traduire une expression chinoise qui signifie généralement « étranger noir ».

WeChat, qui compte près de 900 millions d'utilisateurs, a imputé l'utilisation de l'insulte raciale à une erreur dans le logiciel d'intelligence artificielle qui traduit entre le chinois et l'anglais .

Le problème a été remarqué pour la première fois par une Américaine vivant à Shanghai, Ann James, lorsque son amie a parlé d'être en retard en chinois lors d'une discussion de groupe. James a utilisé la fonction de traduction intégrée de WeChat, qui a produit le message : "Le nègre est en retard".

"Si vous êtes une personne noire en Chine, vous avez rencontré une certaine folie", a déclaré James au site d'information Sixth Tone, ajoutant qu'elle est fréquemment touchée et photographiée en public. "Je sais qu'il y a beaucoup de curiosité et beaucoup d'ignorance à propos des Noirs."

Lors de tests ultérieurs, les utilisateurs ont constaté que l'application utilisait l'insulte raciale presque exclusivement dans des contextes négatifs, notamment avec les mots retard, paresseux et voleur. Mais dans de nombreuses phrases neutres, le mot – hei laowai en chinois – a été traduit en anglais par son sens littéral d'« étranger noir ».

"Nous sommes vraiment désolés pour la traduction inappropriée", a déclaré un porte-parole de WeChat [aux médias locaux](http://www.sixthtone.com/news/1000991/wechat-apologizes-for-translating-black-foreigner-as-n -mot). "Après avoir reçu les commentaires des utilisateurs, nous avons immédiatement résolu le problème." Les tests effectués par le Guardian ont montré que le logiciel de traduction avait été réorganisé et ne produisait plus d'insultes raciales.

L'entreprise utilise l'IA et l'apprentissage automatique, alimentant les ordinateurs d'énormes quantités de données pour l'entraîner à choisir les meilleures traductions en fonction du contexte. Mais le système supprime également la surveillance humaine, ce qui entraîne l'utilisation de mots incorrects, voire offensants.

Ce n'est pas la première fois que des entreprises et des médias chinois sont accusés d'être sourds en matière de race. Les Han constituent environ 92% de la population chinoise et la plupart des minorités ethniques du pays vivent dans l'extrême ouest, loin des villes peuplées de la côte est.

L'année dernière une publicité télévisée pour un détergent à lessive montrait un homme noir couvert de peinture entrant dans une lessive machine et sortir comme un homme asiatique pétillant. La vidéo est devenue virale dans le monde entier et a provoqué l'indignation pour ses messages insensibles.

Au cours de l'été [l'agence de presse d'État a publié] en Chine (https://www.cnbc.com/2017/08/17/chinese-media-xinhua-mocks-indians-and-pm-narendra-modis-policies-in-racist -video.html) une vidéo lors d'une confrontation à la frontière avec l'Inde présentant une parodie offensive d'un homme sikh, avec un turban et une fausse barbe.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd