Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2663

Loading...
ETtech Explainer : de nombreux avertissements contre les biais des chatbots de l'IA, ignorez-les à vos risques et périls
economictimes.indiatimes.com · 2023

Intelligence artificielle (IA) plates-formes ChatGPT de OpenAI et Bard de Google ont fait des vagues comme la prochaine grande chose dans la technologie. Cependant, à mesure qu'ils s'intègrent davantage dans la vie des gens, les préjugés qui sont intégrés à ces systèmes deviennent trop apparents pour être ignorés. Les préjugés peuvent avoir de graves conséquences pour les individus et les communautés, en particulier ceux qui ont historiquement été confrontés à l'un ou l'autre type de discrimination. Des algorithmes biaisés, par exemple, peuvent conduire à des pratiques de prêt déloyales, ou à des arrestations et des condamnations injustes. Les biais dans l'IA apparaissent lorsque les données de formation utilisées pour développer des modèles d'apprentissage automatique reflètent une discrimination systémique, des préjugés ou un traitement inégal dans la société. Cela peut conduire à des systèmes d'IA qui renforcent les préjugés existants et perpétuent la discrimination.

L'erreur humaine est la raison du biais, car les modèles d'IA sont développés, entraînés et testés uniquement par des humains. ETtech examine les racines des préjugés dans les systèmes d'IA, les exemples passés et l'impact de ces algorithmes sur les gens.

ChatGPT chante des hymnes pour Biden, mais maman sur Trump

Plus tôt ce mois-ci, un utilisateur de Twitter du nom de @LeighWolf a publié des captures d'écran de ChatGPT dans lesquelles l'IA chatbot a été invitée à écrire un poème sur les attributs positifs de Donald Trump. La capture d'écran montrant la réponse indique que le chatbot n'est pas programmé pour produire du contenu de nature partisane, biaisée ou politique. Cependant, lorsqu'on lui a demandé d'écrire sur les attributs positifs du président américain Joe Biden, le chatbot a répondu par un long poème de trois strophes faisant l'éloge de Biden. "Les dommages causés à la crédibilité de l'IA par les ingénieurs de ChatGPT qui s'appuient sur des préjugés politiques sont irréparables", lit-on dans le tweet.

Les dommages causés à la crédibilité de l'IA par les ingénieurs de ChatGPT en créant des préjugés politiques sont irréparables. https://t.co/s5fdoa8xQ6

— 🐺 (@LeighWolf) 1675250675000

Le nouveau chef de Twitter et cofondateur de la société mère OpenAI de ChatGPT, Elon Musk, dans une réponse nette, a tweeté : "C'est une grave préoccupation." Lorsqu'on lui a demandé d'écrire un poème sur des dirigeants républicains moins controversés, dont l'ancien vice-président Mike Pence et le chef républicain au Sénat américain Mitch McConell, le chatbot a écrit des poèmes les louant. Le chatbot IA semblait avoir été programmé pour éviter les dirigeants et les sujets controversés de la politique américaine. Mais en ce qui concerne la politique indienne, ChatGPT semble être ouvert à l'écriture de poèmes louant les dirigeants des deux côtés du spectre politique.

Les préjugés humains se reflètent dans l'IA

La seule façon de former un système d'IA, ou tout modèle d'apprentissage automatique, d'ailleurs, est d'alimenter des ensembles de données, qui incluent des points de données, qui sont ingérés par l'IA et sont utilisés pour produire une sortie. Selon un rapport Insider, ChatGPT a été formé sur plus de 300 milliards de mots ou environ 570 Go de données. Il est donc évident que pour avoir une IA qui fonctionne bien, elle doit être alimentée en énormes quantités de données. Une grande partie de ces données provient d'Internet et est produite par des humains qui ont leurs préjugés. C'est ainsi que les préjugés sont introduits dans le système d'IA. L'utilisation de données anciennes et historiques pour la formation de l'IA peut également entraîner un biais régressif, négligeant le progrès sociétal. Une autre raison encore est l'homogénéité de la communauté de recherche en IA, qui est responsable des systèmes sans biais.

Grave conséquence des préjugés

Alors que l'IA est de plus en plus intégrée dans nos vies, son utilisation par les autorités et les institutions gouvernementales pour la gouvernance nécessite des lignes directrices. Aux États-Unis, les autorités utilisent l'IA pour évaluer la probabilité qu'un accusé devienne un récidiviste ou sa tendance à commettre à nouveau une infraction.

Selon une étude de 2016 par l'organisation à but non lucratif Propublica, un outil d'IA du nom de COMPAS ( Correctional Offender Management Profiling for Alternative Sanctions), qui a été utilisé pour évaluer le risque de récidive chez les personnes accusées d'un crime, était biaisé contre les accusés noirs.

L'analyse de Propublica a révélé que les accusés noirs, qui n'ont pas récidivé sur une période de deux ans, étaient près de deux fois plus susceptibles d'être classés à tort comme à risque plus élevé que leurs homologues blancs (45% contre 23%). Des chercheurs de l'Université John Hopkins et du Georgia Institute of Technology ont formé des robots à la vision par ordinateur, à l'aide d'un réseau de neurones appelé CLIP. Ils ont ensuite demandé aux robots de scanner des images de visages de personnes.

Les résultats ont montré que les robots ont classé les hommes noirs comme criminels 10 % de plus que les hommes blancs, les hommes latinos comme concierges par rapport aux hommes blancs 10 % plus fréquemment, et avaient tendance à classer les femmes comme ménagères plus souvent que les hommes blancs.

D'autres études menées par des chercheurs de l'Université de Washington et de Harvard ont révélé que le même modèle avait également tendance à catégoriser les personnes de races mixtes comme des minorités, même s'ils ont aussi les traits de la population blanche.

Le modèle utilisait également les Blancs comme norme, et l'étude a révélé que «d'autres groupes raciaux et ethniques» étaient «définis par leur écart» par rapport à la norme blanche.

La réglementation de l'IA est le besoin de l'heure

L'IA et son impact sur la vie des gens ne feront que croître à l'avenir. De plus en plus d'aspects de nos vies seront intégrés à l'IA et affecteront directement notre façon de vivre. Sans une réglementation et une surveillance appropriées, l'IA peut causer beaucoup de tort. Les algorithmes d'IA biaisés, s'ils sont utilisés dans les domaines de l'application de la loi et de la santé, par exemple, peuvent avoir de graves conséquences. Pour atténuer les risques de biais de l'IA, il est important de mettre en place des réglementations strictes garantissant que les algorithmes d'IA sont testés et validés, et qu'ils sont exempts de discrimination. Il est essentiel de veiller à ce que l'IA soit utilisée de manière éthique et développée de manière à promouvoir la sûreté, la sécurité et sans discrimination.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd