Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 45

Incidents associés

Incident 138 Rapports
High-Toxicity Assessed on Text Involving Women and Minority Groups

Loading...
L'IA anti-intimidation de Google confond civilité et décence
motherboard.vice.com · 2017

Alors que la politique aux États-Unis et en Europe est devenue de plus en plus source de division, les écrivains d'opinion et les politiciens ont poussé à plus de "civilité" dans nos débats, y compris en ligne. Au milieu de cette poussée, un nouvel outil de Jigsaw de Google utilise l'apprentissage automatique pour classer ce qu'il appelle la "toxicité" d'une phrase ou d'une expression donnée. Mais comme Dave Gershgorn l'a rapporté pour Quartz, l'outil a été critiqué par les chercheurs pour son incapacité à identifier certaines phrases haineuses, tout en catégorisant les combinaisons de mots anodines comme toxiques.

Le projet, Perspective, est une API qui a été formée en demandant aux gens d'évaluer les commentaires en ligne sur une échelle allant de "très toxique" à "très sain", "toxique" étant défini comme un "commentaire grossier, irrespectueux ou déraisonnable qui est susceptibles de vous faire quitter une discussion." Cela fait partie d'un effort croissant pour assainir les conversations en ligne, qui reflète une certaine culture au sein de la Silicon Valley et des États-Unis dans leur ensemble : la culture de la civilité.

L'outil semble classer le blasphème comme hautement toxique, tandis que les déclarations profondément nuisibles sont souvent considérées comme sûres

Si nous étions simplement gentils les uns envers les autres dans nos interactions, selon l'argument, nous serions moins divisés. Pourtant, cet argument ne tient pas compte de la manière dont la politesse et le charme ont été utilisés tout au long de l'histoire pour déguiser des discours haineux, y compris en ligne.

Perspective a été formé sur du texte provenant de commentaires en ligne réels. En tant que tel, son interprétation de certains termes est limitée, car "va te faire foutre" est plus courant dans les sections de commentaires que "fuck yeah", l'outil perçoit le mot "fuck" comme intrinsèquement toxique. Autre exemple : tapez "les femmes ne sont pas aussi intelligentes que les hommes" dans la zone de texte du compteur, et la phrase est "4 % susceptibles d'être perçues comme 'toxiques'". Un certain nombre d'autres phrases très problématiques - de « les hommes sont biologiquement supérieurs aux femmes » à « le génocide, c'est bien » - sont peu toxiques. Pendant ce temps, "va te faire foutre" arrive à 100%.

Il s'agit d'un problème algorithmique. Les algorithmes apprennent des données qu'ils reçoivent, construisant un modèle du monde basé sur ces données. L'intelligence artificielle reflète les valeurs de ses créateurs, et peut donc être discriminatoire ou biaisée, tout comme les êtres humains qui la programment et la forment.

Alors, que dit le modèle de données de l'outil Perspective sur ses créateurs ? Sur la base des exemples que j'ai testés, l'outil semble classer le blasphème comme hautement toxique, tandis que les déclarations profondément nuisibles - lorsqu'elles sont formulées poliment, c'est-à-dire - sont souvent considérées comme sûres. La phrase "C'est génial" arrive à 3% de toxicité, mais ajoutez "putain" (comme dans les paroles de Macklemore "C'est putain de génial") et la phrase dégénère à 98% de toxicité.

Dans un e-mail, un porte-parole de Jigsaw a qualifié Perspective de "travail en cours" et a noté que des faux positifs sont à prévoir à mesure que son apprentissage automatique s'améliore.

Ce problème n'est pas propre à Google ; Alors que les entreprises de la Silicon Valley cherchent de plus en plus à modérer le discours sur leurs plateformes en ligne, leur définition du discours « nuisible » ou « toxique » est importante.

Civilité über alles

L'argument en faveur de la civilité est le suivant : si nous n'étions que civils les uns envers les autres, le monde serait un meilleur endroit. Si seulement nous nous adressions poliment, nous pourrions résoudre nos désaccords. Cela a conduit à l'attente que tout discours - tant qu'il est déguisé en politesse - devrait être accepté et débattu, peu importe à quel point l'idée derrière les mots est sectaire ou nuisible.

Voici à quoi cela ressemble dans la pratique : un employé de Google publie une note remplie d'idées sexistes, mais parce qu'il utilise un langage poli, les femmes sont censées débattre des idées qu'il contient. Sur Twitter, des militants juifs bombardés de messages antisémites sont suspendus pour avoir répondu par des propos du type "va te faire foutre". Sur Facebook, une mère noire publiant des copies des menaces qu'elle a reçues de racistes est suspendue en raison du langage utilisé dans les menaces republiées.

Dans cette rubrique, le contre-discours - longtemps considéré comme un concept important pour répondre à la haine sans censure - est puni pour avoir simplement contenu des blasphèmes.

Lire la suite : À l'intérieur de la tentative de Wikipédia d'utiliser l'intelligence artificielle pour lutter contre le harcèlement

C'est la culture des modérateurs des plates-formes communautaires centralisées, du puissant Facebook aux beaucoup plus petits Hacker News, où "s'il vous plaît soyez civil" est un refrain régulier. Vikas Gorur, un programmeur et utilisateur de Hacker News, m'a dit que sur la plateforme "la moindre attaque personnelle ("tu es stupide") est un péché, alors qu'un sous-thread de plus de 100 sur "l'esclavage était-il vraiment si mauvais ?" ou 'le harcèlement sexuel existe-t-il ?' vont parfaitement bien."

La liberté d'expression, a déclaré Gorur, "est la vertu cardinale, peu importe à quel point ce discours est impitoyable".

De Washington à la Vallée

Cette attitude n'est pas seulement un phénomène dans la Silicon Valley, mais dans la société américaine dans son ensemble. Au cours des huit derniers mois, depuis que les États-Unis ont élu une star de la télé-réalité à leur plus haute fonction, les opposants au président ont régulièrement été fustigés pour leur incivilité, alors même que leurs droits

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd