Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 172

Incidents associés

Incident 1927 Rapports
Sexist and Racist Google Adsense Advertisements

Loading...
Les ordinateurs peuvent-ils être racistes ? Mégadonnées, inégalités et discrimination
fordfoundation.org · 2018

Il semble que tout le monde parle de la puissance du Big Data et de la manière dont il aide les entreprises, les gouvernements et les organisations à prendre des décisions meilleures et plus efficaces. Mais ils mentionnent rarement que les mégadonnées peuvent en fait perpétuer et exacerber les systèmes existants de racisme, de discrimination et d'inégalité.

Les mégadonnées sont censées rendre la vie meilleure. Des entreprises comme Netflix l'utilisent pour recommander des films que vous aimeriez regarder en fonction de ce que vous avez déjà diffusé. Il existe également des applications publiques plus larges, telles que la prédiction (et donc la réponse plus rapide) des épidémies de maladies sur la base des modèles de recherche en ligne des symptômes.

Le problème avec les mégadonnées est que leur application et leur utilisation ne sont pas impartiales ou impartiales. La professeure de Harvard, Latanya Sweeney, qui dirige également le laboratoire de confidentialité des données de l'université, a mené une étude transnationale sur 120 000 annonces de recherche sur Internet et a constaté une incidence répétée de préjugés raciaux. Plus précisément, son étude a porté sur les achats Google Adwords effectués par des entreprises qui fournissent des vérifications des antécédents criminels. À l'époque, les résultats de l'étude montraient que lorsqu'une recherche était effectuée sur un nom « racialement associé » à la communauté noire, les résultats étaient beaucoup plus susceptibles d'être accompagnés d'une publicité suggérant que la personne avait un casier judiciaire. – qu'ils l'aient fait ou non (voir la vidéo ci-dessous). Ce n'est qu'une des nombreuses études de recherche montrant un biais similaire.

Si un employeur recherchait le nom d'une embauche potentielle, pour être confronté à des publicités suggérant que la personne avait déjà été arrêtée, vous pouvez imaginer comment cela pourrait affecter les perspectives de carrière du candidat.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd