Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 1558

Incidents associés

Incident 1775 Rapports
Google’s Assistive Writing Feature Provided Allegedly Unnecessary and Clumsy Suggestions

Loading...
La fonctionnalité "Avertissements inclusifs" alimentée par l'IA de Google est très cassée
vice.com · 2022

À partir de ce mois-ci, 21 ans après que Microsoft a désactivé Clippy parce que les gens le détestaient tellement, Google déploie une nouvelle fonctionnalité appelée "écriture assistée" qui s'intègre à votre prose pour prendre des notes de style et de tonalité sur le choix des mots, la concision et le langage inclusif. .

La société parle de cette fonctionnalité depuis un moment; l'année dernière, il a publié des directives de documentation qui exhortent les développeurs à utiliser un langage, une voix et un ton de documentation accessibles. Il est déployé de manière sélective pour les utilisateurs au niveau de l'entreprise et est activé par défaut. Mais cette fonctionnalité apparaît pour les utilisateurs finaux dans Google Docs, l'un des produits les plus utilisés de l'entreprise, et c'est ennuyeux.

Chez Motherboard, l'écrivain senior Lorenzo Franceschi-Bicchierai a tapé "ennuyé" et Google lui a suggéré de le changer en "en colère" ou "contrarié" pour "améliorer la fluidité de votre écriture". Être ennuyé est une émotion complètement différente de celle d'être en colère ou contrarié - et "contrarié" est si amorphe qu'il pourrait signifier tout un éventail de sentiments - mais Google est une machine, tandis que Lorenzo est un écrivain.

La rédactrice sociale Emily Lipstein a tapé "Motherboard" (comme dans le nom de ce site Web) dans un document et Google est apparu pour lui dire qu'elle était insensible : "Avertissement inclusif. Certains de ces mots peuvent ne pas être inclusifs pour tous les lecteurs. Envisagez d'utiliser des mots différents.

La journaliste Rebecca Baird-Remba a tweeté un "avertissement inclusif" qu'elle a reçu sur le mot "propriétaire", que Google lui a suggéré de changer en "propriétaire" ou "propriétaire".

Tim Marchman, rédacteur en chef de la carte mère, et moi avons continué à tester les limites de cette fonctionnalité avec la prose d'extraits d'œuvres célèbres et d'interviews. Google a suggéré que Martin Luther King Jr. aurait dû parler de "l'urgence intense du moment présent" plutôt que de "l'urgence féroce du moment présent" dans son discours "J'ai un rêve" et a édité l'utilisation du président John F. Kennedy dans son discours inaugural de l'expression "pour toute l'humanité" pour dire "pour toute l'humanité". Une interview transcrite du néo-nazi et ancien chef du Klan David Duke – dans laquelle il utilise le mot N et parle de la chasse aux Noirs – ne reçoit aucune note. Le Manifeste SCUM de la féministe radicale Valerie Solanas reçoit plus de modifications que la tirade de Duke; elle devrait utiliser des "officiers de police" au lieu de "policiers", note utilement Google. Même Jésus (ou du moins les traducteurs responsables de la Bible King James) ne s'en tire pas facilement - plutôt que de parler des œuvres "merveilleuses" de Dieu dans le Sermon sur la Montagne, affirme le robot de Google, Il aurait dû utiliser les mots "grand », « merveilleux » ou « ravissant ».

Google a déclaré à Motherboard que cette fonctionnalité est dans une "évolution continue".

"L'écriture assistée utilise des modèles de compréhension du langage, qui reposent sur des millions d'expressions et de phrases courantes pour apprendre automatiquement comment les gens communiquent. Cela signifie également qu'ils peuvent refléter certains biais cognitifs humains », a déclaré un porte-parole de Google. "Notre technologie s'améliore constamment, et nous n'avons pas encore (et peut-être jamais) de solution complète pour identifier et atténuer toutes les associations de mots indésirables et les biais."

Être plus inclusif avec notre écriture est un bon objectif, et qui vaut la peine d'être poursuivi alors que nous enchaînons ces phrases et les partageons avec le monde. « Officiers de police » est plus précis que « policiers ». Retirer des expressions telles que "liste blanche/liste noire" et "maître/esclave" de notre vocabulaire ne résout pas seulement des années de biais habituels dans la terminologie technologique, mais nous oblige en tant qu'écrivains et chercheurs à être plus créatifs dans la façon dont nous décrivons les choses. Des changements dans notre discours, comme l'échange de vols spatiaux «habités» contre «avec équipage», sont des tentatives de corriger les histoires d'effacement des femmes et des personnes non binaires des industries où elles travaillent.

Mais les mots signifient des choses; appeler les propriétaires «propriétaires» est presque pire que de les appeler «landchads», et à moitié moins précis. Il s'adresse à des gens comme Howard Schultz qui préféreraient que vous ne l'appeliez pas un milliardaire, mais une "personne de moyens". À une extrémité plus extrême, si quelqu'un a l'intention d'être raciste, sexiste ou excluant dans ses écrits et souhaite le rédiger dans un document Google, il devrait être autorisé à le faire sans qu'un algorithme tente d'assainir ses intentions et de confondre son lecteurs. C'est ainsi que nous nous retrouvons avec des sifflets de chien.

Penser et écrire en dehors des termes binaires comme « mère » et « père » peut être utile, mais certaines personnes sont mères, et la personne qui écrit à leur sujet devrait le savoir. Certains sites Web (et parties d'ordinateurs) s'appellent simplement Motherboard. Essayer d'intégrer la conscience de soi, la sensibilité et l'édition soignée dans l'écriture des gens à l'aide d'algorithmes d'apprentissage automatique - des technologies déjà profondément défectueuses et souvent inintelligentes - est une erreur. Surtout quand cela vient d'une entreprise qui est aux prises avec son propre calcul interne en matière d'inclusivité, de diversité et de mauvais traitements des travailleurs qui défendent une meilleure éthique dans l'IA.

Ces suggestions s'amélioreront probablement au fur et à mesure que les utilisateurs de Google Docs y répondront, consacrant une quantité incalculable de travail non rémunéré à la formation des algorithmes, comme nous formons déjà ses fonctionnalités de correction automatique, de texte prédictif et de suggestion de recherche. Jusque-là, nous devrons continuer à lui dire que non, nous parlons vraiment de la carte mère.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd