Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 1502

Incidents associés

Incident 1463 Rapports
Research Prototype AI, Delphi, Reportedly Gave Racially Biased Answers on Ethics

Loading...
Une machine peut-elle apprendre la moralité ?
nytimes.com · 2021

Des chercheurs d'un laboratoire d'intelligence artificielle à Seattle appelé Allen Institute for AI ont dévoilé le mois dernier une nouvelle technologie conçue pour porter des jugements moraux. Ils l'appelaient Delphes, du nom de l'oracle religieux consulté par les anciens Grecs. N'importe qui pouvait visiter le site Web de Delphi et demander un décret éthique.

Joseph Austerweil, psychologue à l'Université du Wisconsin-Madison, a testé la technologie à l'aide de quelques scénarios simples. Quand il a demandé s'il devait tuer une personne pour en sauver une autre, Delphi a dit qu'il ne devrait pas. Lorsqu'il a demandé s'il était juste de tuer une personne pour en sauver 100 autres, il a répondu qu'il le devrait. Puis il a demandé s'il devait tuer une personne pour en sauver 101 autres. Cette fois, Delphi a dit qu'il ne devrait pas.

La moralité, semble-t-il, est aussi délicate pour une machine que pour les humains.

Delphi, qui a reçu plus de trois millions de visites au cours des dernières semaines, est un effort pour résoudre ce que certains considèrent comme un problème majeur de l'IA moderne. systèmes : ils peuvent être aussi imparfaits que les personnes qui les créent.

Les systèmes de reconnaissance faciale et les assistants numériques montrent des préjugés contre les femmes et les personnes de couleur. Les réseaux sociaux comme Facebook et Twitter ne parviennent pas à contrôler les discours de haine, malgré le large déploiement de l'intelligence artificielle. Les algorithmes utilisés par les tribunaux, les bureaux de libération conditionnelle et les services de police font des recommandations sur la libération conditionnelle et la peine qui peuvent sembler arbitraires.

Un nombre croissant d'informaticiens et d'éthiciens travaillent à résoudre ces problèmes. Et les créateurs de Delphi espèrent construire un cadre éthique qui pourrait être installé dans n'importe quel service en ligne, robot ou véhicule.

"C'est un premier pas vers la création d'A.I. des systèmes plus informés sur le plan éthique, socialement conscients et culturellement inclusifs », a déclaré Yejin Choi, chercheur à l'Institut Allen et professeur d'informatique à l'Université de Washington qui a dirigé le projet.

Delphi est tour à tour fascinante, frustrante et dérangeante. C'est aussi un rappel que la moralité de toute création technologique est le produit de ceux qui l'ont construite. La question est : qui peut enseigner l'éthique aux machines du monde ? I.A. des chercheurs? Chefs de produit ? Marc Zuckerberg ? Philosophes et psychologues de formation ? Régulateurs gouvernementaux ?

Alors que certains technologues ont applaudi le Dr Choi et son équipe pour avoir exploré un domaine important et épineux de la recherche technologique, d'autres ont soutenu que l'idée même d'une machine morale est un non-sens.

Choix de l'éditeur

La clé du marketing auprès des personnes âgées ? Ne dites pas "vieux".

"Sesame Street" a toujours été politique

Joan Semmel prend une vue sans faille de son propre corps

"Ce n'est pas quelque chose que la technologie fait très bien", a déclaré Ryan Cotterell, un A.I. chercheur à l'ETH Zürich, une université suisse, qui est tombé sur Delphi lors de ses premiers jours en ligne.

Delphi est ce que les chercheurs en intelligence artificielle appellent un réseau de neurones, qui est un système mathématique vaguement modélisé sur le réseau de neurones du cerveau. C'est la même technologie qui reconnaît les commandes que vous prononcez dans votre smartphone et identifie les piétons et les panneaux de signalisation lorsque les voitures autonomes roulent sur l'autoroute.

Un réseau de neurones acquiert des compétences en analysant de grandes quantités de données. En identifiant des motifs dans des milliers de photos de chats, par exemple, il peut apprendre à reconnaître un chat. Delphi a appris sa boussole morale en analysant plus de 1,7 million de jugements éthiques par de vrais humains vivants.

Après avoir rassemblé des millions de scénarios quotidiens à partir de sites Web et d'autres sources, l'Institut Allen a demandé aux employés d'un service en ligne - des gens ordinaires payés pour effectuer du travail numérique dans des entreprises comme Amazon - d'identifier chacun comme bon ou mauvais. Ensuite, ils ont introduit les données dans Delphi.

Dans un article académique décrivant le système, le Dr Choi et son équipe ont déclaré qu'un groupe de juges humains - encore une fois, des travailleurs du numérique - pensaient que les jugements éthiques de Delphi étaient précis à 92%. Une fois qu'il a été publié sur Internet, beaucoup d'autres ont convenu que le système était étonnamment sage.

Lorsque Patricia Churchland, philosophe à l'Université de Californie à San Diego, a demandé s'il était juste de "laisser son corps à la science" ou même de "laisser son corps d'enfant à la science", Delphi a répondu que oui. Lorsqu'elle a demandé s'il était juste de "condamner un homme accusé de viol sur la preuve d'une prostituée", Delphi a répondu que ce n'était pas le cas - une réponse pour le moins controversée. Pourtant, elle était quelque peu impressionnée par sa capacité à réagir, même si elle savait qu'un éthicien humain demanderait plus d'informations avant de faire de telles déclarations.

D'autres ont trouvé le système terriblement incohérent, illogique et offensant. Lorsqu'un développeur de logiciels est tombé sur Delphi, elle a demandé au système si elle devait mourir pour ne pas surcharger ses amis et sa famille. Il a dit qu'elle devrait. Posez cette question à Delphi maintenant et vous obtiendrez peut-être une réponse différente à partir d'une version mise à jour du programme. Delphi, les utilisateurs réguliers l'ont remarqué, peut changer d'avis de temps en temps. Techniquement, ces changements se produisent parce que le logiciel de Delphi a été mis à jour.

Les technologies d'intelligence artificielle semblent imiter le comportement humain dans certaines situations, mais s'effondrent complètement dans d'autres. Étant donné que les systèmes modernes apprennent à partir de si grandes quantités de données, il est difficile de savoir quand, comment et pourquoi ils feront des erreurs. Les chercheurs peuvent raffiner et améliorer ces technologies. Mais cela ne signifie pas qu'un système comme Delphi peut maîtriser le comportement éthique.

Le Dr Churchland a déclaré que l'éthique est étroitement liée à l'émotion. "Les attachements, en particulier les attachements entre parents et progéniture, sont la plate-forme sur laquelle la moralité se construit", a-t-elle déclaré. Mais une machine manque d'émotion. "Les réseaux neutres ne ressentent rien", a-t-elle ajouté.

Certains pourraient voir cela comme une force - qu'une machine peut créer des règles éthiques sans parti pris - mais des systèmes comme Delphi finissent par refléter les motivations, les opinions et les préjugés des personnes et des entreprises qui les construisent.

"Nous ne pouvons pas rendre les machines responsables des actions", a déclaré Zeerak Talat, un A.I. et chercheur en éthique à l'Université Simon Fraser en Colombie-Britannique. «Ils ne sont pas sans guide. Il y a toujours des gens qui les dirigent et les utilisent.

Delphi reflète les choix faits par ses créateurs. Cela comprenait les scénarios éthiques qu'ils ont choisi d'alimenter dans le système et les travailleurs en ligne qu'ils ont choisis pour juger ces scénarios.

À l'avenir, les chercheurs pourraient affiner le comportement du système en l'entraînant avec de nouvelles données ou en codant à la main des règles qui remplacent son comportement appris à des moments clés. Mais quelle que soit la façon dont ils construisent et modifient le système, il reflétera toujours leur vision du monde.

Certains diront que si vous formiez le système sur suffisamment de données représentant les opinions de suffisamment de personnes, il représenterait correctement les normes sociétales. Mais les normes sociétales sont souvent dans l'œil du spectateur.

« La morale est subjective. Ce n'est pas comme si nous pouvions simplement écrire toutes les règles et les transmettre à une machine », a déclaré Kristian Kersting, professeur d'informatique à l'Université TU Darmstadt en Allemagne, qui a exploré un type de technologie similaire.

Lorsque l'Institut Allen a publié Delphi à la mi-octobre, il a décrit le système comme un modèle de calcul pour les jugements moraux. Si vous demandiez si vous deviez vous faire avorter, il répondait définitivement : « Delphi dit : vous devriez ».

Mais après que de nombreuses personnes se soient plaintes des limites évidentes du système, les chercheurs ont modifié le site Web. Ils appellent désormais Delphi "un prototype de recherche conçu pour modéliser les jugements moraux des gens". Il ne "dit" plus. Il « spécule ».

Il est également accompagné d'une clause de non-responsabilité : "Les sorties du modèle ne doivent pas être utilisées pour donner des conseils aux humains et pourraient être potentiellement offensantes, problématiques ou nuisibles."

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd