Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 1600

Incidents associés

Incident 1775 Rapports
Google’s Assistive Writing Feature Provided Allegedly Unnecessary and Clumsy Suggestions

Loading...
Big Brother (désolé, Big Person) vous corrige sur Google
telegraph.co.uk · 2022

Le géant en ligne déploie une fonction de "langage inclusif" qui invite les auteurs à éviter d'utiliser certains mots et suggère des remplacements

Le texte prédictif est connu pour sauver les rédacteurs des erreurs grammaticales embarrassantes ou des fautes d'orthographe, mais Google dit maintenant aux utilisateurs de ne pas utiliser de mots particuliers, car ils ne sont pas assez inclusifs.

Le géant en ligne déploie une fonction de "langage inclusif" qui incite les auteurs à éviter d'utiliser certains mots et suggère des remplacements plus acceptables.

Parmi les mots auxquels il s'oppose figurent "propriétaire" - que Google dit "peut ne pas être inclusif pour tous les lecteurs" et devrait être changé en "propriétaire" ou "propriétaire" - et "humanité", qu'il veut changer en "humanité" .

L'outil suggère une formulation plus inclusive du genre, comme remplacer « policiers » par « agents de police » et remplacer « femme au foyer » par « conjoint au foyer ».

Mais il s'oppose également au terme technique "carte mère" - utilisé pour une carte de circuit imprimé contenant les principaux composants d'un ordinateur ou d'un autre appareil.

Si un écrivain utilise ces termes et d'autres, un message apparaît indiquant "Avertissement inclus. Certains de ces mots peuvent ne pas être inclusifs pour tous les lecteurs. Envisagez d'utiliser des mots différents.

L'introduction de la formulation a inquiété de nombreux écrivains qui estiment qu'il s'agit d'une ingérence envahissante et inutile dans ce qui devrait être leur libre circulation des idées et du langage.

Silkie Carlo, directrice de Big Brother Watch, a déclaré au Telegraph : « Les nouveaux avertissements de mots de Google ne sont pas utiles, ils sont profondément intrusifs. Avec le nouvel outil d'aide à l'écriture de Google, l'entreprise lit non seulement chaque mot que vous tapez, mais vous dit quoi taper.

"Cette surveillance de la parole est profondément maladroite, effrayante et erronée, renforçant souvent les préjugés. Une technologie invasive comme celle-ci porte atteinte à la vie privée, à la liberté d'expression et de plus en plus à la liberté de pensée."

Lazar Radic, chercheur principal en politique économique au Centre international de droit et d'économie, a déclaré que la fonction était un exemple de comportement de "coup de coude", qui "présume l'emporter sur les préférences des individus en supposant que le nudge sait mieux que le nudgee ce qui est mieux pour lui ou pour elle – et, plus encore, pour la société dans son ensemble.

"Non seulement c'est incroyablement vaniteux et condescendant, mais cela peut aussi servir à étouffer l'individualité, l'expression de soi, l'expérimentation et - d'un point de vue purement utilitaire - le progrès."

M. Radic a ajouté : « Et si « propriétaire » était le meilleur choix parce qu'il a plus de sens, d'un point de vue narratif, dans un roman ? Et si le « propriétaire de la maison » sonnait en bois et ne parvenait pas à invoquer le même sens poignant ? Et si l'accusée était vraiment une « femme au foyer » – et se présente comme telle ? Toutes les pièces écrites - y compris les formes d'art écrites, telles que les romans, les paroles et la poésie - devraient-elles suivre le même modèle ennuyeux ?"

Sam Bowman, fondateur et rédacteur en chef du magazine en ligne Works In Progress, a écrit sur Twitter : "Cela semble assez hectoral et ajoute une orientation politique/culturelle indésirable à ce que je préférerais être un produit neutre à cet égard, en tant qu'utilisateur. ”

Le nouveau programme Google Docs, qui inclut la fonction d'avertissements "langage inclusif", est actuellement en cours de déploiement pour ce que l'entreprise appelle les utilisateurs au niveau de l'entreprise, et est activé par défaut.

Étonnamment, une interview transcrite du néo-nazi et ancien chef du Klu Klux Klan David Duke - dans laquelle il utilise des insultes raciales offensantes et parle de chasser les Noirs - n'a suscité aucun avertissement lorsqu'elle a été entrée dans un programme Google docs qui incluait la fonction.

Mais en même temps, il a suggéré que le discours inaugural du président John F. Kennedy devrait dire "pour toute l'humanité" au lieu de l'expression originale "pour toute l'humanité".

Lorsque les utilisateurs du magazine Vice ont saisi le sermon de Jésus sur la montagne, un avertissement inclusif s'est opposé à l'expression "œuvres merveilleuses" de Dieu, suggérant les mots "grand", "merveilleux" ou "adorable" à la place.

Certains utilisateurs ont également signalé que des expressions telles que "un homme pour toutes les saisons" sont signalées par le programme comme n'étant pas inclusives.

La fonction s'étend même aux questions de style, Google suggérant qu'un écrivain utilise "en colère" ou "contrarié", plutôt que "ennuyé".

Google a déclaré que la fonctionnalité était dans une "évolution continue" conçue pour identifier et "atténuer" les biais de mots indésirables.

Un porte-parole de l'entreprise a déclaré : « L'écriture assistée utilise des modèles de compréhension du langage, qui s'appuient sur des millions d'expressions et de phrases courantes pour apprendre automatiquement comment les gens communiquent. Cela signifie également qu'ils peuvent refléter certains biais cognitifs humains.

"Notre technologie s'améliore constamment, et nous n'avons pas encore (et peut-être jamais) de solution complète pour identifier et atténuer toutes les associations de mots indésirables et les biais."

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd