Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 780

Incidents associés

Incident 4528 Rapports
Defamation via AutoComplete

Loading...
Diffamation algorithmique : le cas de la saisie semi-automatique sans vergogne
nickdiakopoulos.com · 2013

Remarque : Une version de ce qui suit apparaît également sur le blog du centre de remorquage.

En Allemagne, un homme a récemment remporté une bataille juridique avec Google sur le fait que lorsque vous recherchiez son nom, les suggestions de saisie semi-automatique le reliaient à la «scientologie» et à la «fraude», deux choses qui, selon lui, avaient des insinuations diffamatoires. À la suite de la perte de l'affaire, Google est désormais obligé de supprimer les suggestions diffamatoires des résultats de saisie semi-automatique lorsqu'elle en est informée, du moins en Allemagne.

Les affaires judiciaires résultant de la diffamation par saisie semi-automatique ne se produisent pas seulement en Allemagne. Dans d'autres pays européens comme l'Italie, la France et l'Irlande, jusqu'au Japon et en Australie, des personnes (et des entreprises) ont intenté des poursuites alléguant que ces algorithmes les ont diffamés en liant leurs noms à tout, du crime et de la fraude à la faillite ou à la conduite sexuelle. Dans certains cas, de telles insinuations peuvent avoir des conséquences réelles pour trouver un emploi ou faire des affaires. De nouveaux services, tels que "Google Suggest Plan" de brand.com ont même vu le jour pour aider les gens à manipuler et ainsi éviter les connotations négatives dans les autocompletions de recherche.

Le Digital Media Law Project (DMLP) du Berkman Center définit généralement une déclaration diffamatoire comme « une fausse déclaration de fait qui expose une personne à la haine, au ridicule ou au mépris, la baisse dans l'estime de ses pairs, la fait fuir ou le blesse dans ses affaires ou son commerce. En associant le nom d'une personne à un comportement peu recommandable, il semblerait incontestable que les algorithmes de saisie semi-automatique peuvent effectivement diffamer les gens.

Donc, si des algorithmes comme la saisie semi-automatique peuvent diffamer des personnes ou des entreprises, notre prochaine question logique pourrait être de demander comment tenir ces algorithmes responsables de leurs actions. Compte tenu de l'ampleur et de la difficulté de surveiller de tels algorithmes, une approche consisterait à utiliser davantage d'algorithmes pour les surveiller et essayer de trouver des cas de diffamation cachés dans leurs millions (ou milliards) de suggestions.

Pour tester cette approche, j'ai automatiquement collecté des données sur les auto-complétions Google et Bing pour un certain nombre de requêtes différentes relatives aux entreprises publiques et aux politiciens. J'ai ensuite filtré ces résultats par rapport à des listes de mots-clés liés au crime et au sexe afin de cibler les cas potentiels de diffamation. J'ai utilisé une liste des sociétés du S&P 500 pour interroger les API de saisie semi-automatique avec les modèles suivants, où "X" est le nom de l'entreprise : "X", "X company", "X is", "X has", " La société X est » et « La société X a ». Et j'ai utilisé une liste de membres du Congrès américain de la Sunlight Foundation pour interroger le prénom et le nom de chaque personne, ainsi que l'ajout de « représentant » ou « sénateur » avant leur nom. Les données ont ensuite été filtrées à l'aide d'une liste de mots-clés liés au sexe et de mots liés à la criminalité collectés dans le dictionnaire américain de Cambridge afin de se concentrer sur un sous-ensemble plus petit des près de 80 000 autosuggestions récupérées.

Parmi les auto-complétions d'entreprise que j'ai filtrées et examinées, il y avait vingt-quatre instances qui pouvaient être lues comme des déclarations ou des affirmations impliquant l'entreprise dans tout, de la corruption et des escroqueries à la fraude et au vol. Par exemple, interroger Bing pour "Torchmark" revient comme deuxième suggestion, "torchmark corporation job scam". Sans vraiment creuser profondément, il est difficile de dire si Torchmark Corporation est vraiment impliquée dans une forme d'escroquerie, ou s'il y a juste des rumeurs sur des e-mails frauduleux qui circulent. Si ces rumeurs sont fausses, il pourrait en effet s'agir d'un cas de diffamation contre l'entreprise. Mais c'est une situation délicate pour Bing, car s'ils filtraient une rumeur qui s'avérait vraie, il pourrait sembler qu'ils essayaient de balayer les activités peu recommandables d'une entreprise sous le tapis. Les gens demanderaient : Bing essaie-t-il de protéger cette entreprise ? En même temps, ils rendraient un mauvais service à leurs utilisateurs en ne les évitant pas une arnaque.

En parcourant les auto-complétions renvoyées par les requêtes pour les membres du Congrès, il est devenu clair qu'un problème important ici concerne les collisions de noms. Pour les noms de membres du Congrès relativement génériques comme "Gerald Connolly" ou "Joe Barton", il existe de nombreuses autres personnes sur Internet portant les mêmes noms. Et certaines de ces personnes ont fait de mauvaises choses. Ainsi, lorsque vous recherchez "Gerald Connolly" sur Google, une suggestion qui apparaît est "gerald connolly vol à main armée", non pas parce que le membre du Congrès Gerald Connolly a volé quelqu'un, mais parce que quelqu'un d'autre au Canada du même nom l'a fait. Si vous interrogez plutôt le « représentant Gerald Connolly », l'association disparaît ; l'ajout de «représentant» lève avec succès l'ambiguïté des deux Connolly. Le moteur de recherche a cependant du mal : sans un terme désambiguïsant, comment devrait-il savoir que vous recherchez le membre du Congrès ou un voleur ? Il existe d'autres cas qui peuvent être des cas de diffamation plus clairs, comme sur Bing "Joe Barton" suggérant "joe barton scam" qui n'a pas été corrigé lors de l'ajout du titre "représentant" au début de la requête. Cela semble être plus un cas légitime de diffamation puisque même avec la désambiguïsation c'est sti

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd