Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 608

Incidents associés

Incident 3734 Rapports
Amazon’s Experimental Hiring Tool Allegedly Displayed Gender Bias in Candidate Rankings

Loading...
Amazon a accidentellement créé un outil de recrutement "sexiste", puis l'a fermé
aplus.com · 2018

La technologie d'apprentissage automatique est de plus en plus courante dans divers secteurs, de la police au recrutement. Mais des rapports ont montré que bon nombre de ces systèmes ont des problèmes de longue date en matière de discrimination. Pour éviter d'amplifier les préjugés, les entreprises doivent apprendre activement à leur technologie à être inclusive.

Il existe plusieurs façons pour les entreprises d'améliorer leurs outils d'apprentissage automatique. Quartz suggère d'évaluer les impacts plus larges des nouveaux systèmes d'IA avant leur mise en œuvre, ainsi que d'établir des codes de conduite internes et des modèles d'incitation pour renforcer le respect des pratiques non discriminatoires. La publication indique également que l'inclusivité et la diversité doivent être des priorités dès le début, à partir du développement des équipes de conception jusqu'au produit final.

Il est également important pour les entreprises d'être transparentes sur l'impact de leur technologie et d'évaluer en permanence son efficacité, du raffinement des algorithmes à l'évaluation et au reporting de son comportement. En prenant ces mesures proactives, les entreprises avant-gardistes ont le potentiel de créer des systèmes d'IA révolutionnaires sans poser de risque pour les droits de l'homme.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd