Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2297

Loading...
Intelligence artificielle biaisée contre les personnes atteintes de maladie mentale
humanmedicine.msu.edu · 2022

L'utilisation croissante d'une technologie appelée intelligence artificielle émotionnelle pourrait entraîner une discrimination à l'égard des personnes atteintes de maladies mentales, en particulier dans l'emploi, a averti un rapport dirigé par un professeur du College of Human.

Les entreprises et les agences gouvernementales étendent rapidement l'utilisation de l'intelligence artificielle (IA) émotionnelle, y compris pour sélectionner les candidats à un emploi et surveiller les travailleurs, avec peu de preuves qu'elle est scientifiquement valide, selon l'article publié dans la revue [Current Psychiatry Reports](https:/ /link.springer.com/article/10.1007/s11920-022-01330-7) a déclaré.

"On craint que l'utilisation commerciale de l'IA émotionnelle n'augmente la stigmatisation et la discrimination et n'ait des conséquences négatives dans la vie quotidienne des personnes atteintes de maladie mentale", indique le rapport, ajoutant que "les prédictions de l'algorithme commercial d'IA émotionnelle sur la maladie mentale ne devraient pas être traitées comme des problèmes médicaux". fait."

Les algorithmes mesurent les traits du visage, le langage corporel, les modèles de parole, la fréquence cardiaque, la respiration, le suivi des yeux, la transpiration et d'autres données, y compris les publications sur les réseaux sociaux, pour développer une conclusion sur l'état émotionnel d'une personne. Les programmes pourraient également discriminer en fonction de la race et du sexe, car les chercheurs soupçonnent que les algorithmes sont largement basés sur les caractéristiques des hommes blancs.

"Nous savons que l'IA a intégré les mêmes biais que les humains", a déclaré Scott Monteith, MD, psychiatre, professeur adjoint de clinique de psychiatrie et auteur principal de l'étude. "En ce qui concerne la maladie mentale, il y a malheureusement énormément de stigmatisation."

Les algorithmes d'IA, y compris ceux développés par les grandes sociétés de logiciels, sont propriétaires et, par conséquent, indisponibles pour que des chercheurs indépendants puissent juger de la validité scientifique, a déclaré Monteith.

Le marché mondial de l'intelligence artificielle émotionnelle devrait passer de 19,9 milliards de dollars en 2020 à 52,8 milliards de dollars d'ici 2026. Rapport des Nations Unies.

Les candidats à un emploi et les employés ignorent souvent que l'IA les surveille et porte des jugements sur leur état émotionnel.

"C'est l'un des éléments difficiles de cela", a déclaré Monteith, qui est basé à Traverse City. "Parfois, l'IA est utilisée, et vous ne savez peut-être pas qu'elle est utilisée. C'est insidieux, et c'est de plus en plus omniprésent."

Pour les personnes atteintes de maladies mentales, cela est particulièrement gênant, a-t-il dit, car les personnes atteintes de maladies mentales, d'autres handicaps ou de défigurations faciales pourraient ne pas être analysées avec précision ou équité, selon l'article.

Certains programmes d'IA analysent les CV à la recherche de mots clés et utilisent des algorithmes pour analyser le texte, ce qui augmente la possibilité que certains candidats à un emploi soient rejetés sans intervention humaine. Lors de l'analyse d'images faciales, les programmes recherchent généralement des indicateurs de six états émotionnels : la colère, le dégoût, la peur, le bonheur, la tristesse et la surprise.

L'un des principaux objectifs de son article, a déclaré Monteith, était de faire prendre conscience de la façon dont l'IA émotionnelle devient courante et qu'elle n'est pas basée sur des preuves scientifiques solides.

La technologie, a-t-il suggéré, devrait être réglementée par une combinaison de normes gouvernementales et de «lignes directrices sur les meilleures pratiques» volontaires.

"Je suis très pro de la technologie", a-t-il déclaré. "Comme tout outil, l'IA est potentiellement utile et potentiellement dangereuse. L'IA doit être contrôlée pour protéger toutes les personnes impliquées."

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd