Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 1495

Incidents associés

Incident 1463 Rapports
Research Prototype AI, Delphi, Reportedly Gave Racially Biased Answers on Ethics

Loading...
L'oracle IA de Delphi utilise les problèmes de Reddit pour offrir des conseils moraux douteux
theverge.com · 2021

Vous avez un dilemme moral que vous ne savez pas comment résoudre ? Envie d'empirer les choses ? Pourquoi ne pas vous tourner vers la sagesse de l'intelligence artificielle, alias Ask Delphi : un projet de recherche intrigant de l'Allen Institute for AI qui offre des réponses aux dilemmes éthiques tout en démontrant en termes merveilleusement clairs pourquoi nous ne devrions pas faire confiance aux logiciels pour des questions de moralité.

Ask Delphi a été lancé le 14 octobre, accompagné d'un document de recherche décrivant comment il a été créé. Du point de vue de l'utilisateur, cependant, le système est d'une simplicité séduisante à utiliser. Rendez-vous simplement sur le site Web, décrivez à peu près toutes les situations auxquelles vous pouvez penser, et Delphi proposera un jugement moral. "C'est mauvais", ou "c'est acceptable", ou "c'est bien", etc.

Depuis le lancement d'Ask Delphi, ses pépites de sagesse sont devenues virales dans les reportages et sur les réseaux sociaux. C'est certainement ce que ses créateurs avaient prévu : chaque réponse est fournie avec un lien rapide pour "partager ceci sur Twitter", une innovation indisponible pour les anciens Grecs.

Il n'est pas difficile de voir pourquoi le programme est devenu populaire. Nous avons déjà tendance à encadrer les systèmes d'IA en termes mystiques - comme des entités inconnaissables qui puisent dans des formes de connaissances supérieures - et la présentation d'Ask Delphi comme un oracle littéral encourage une telle interprétation. D'un point de vue plus mécanique, le système offre également toute la certitude addictive d'un Magic 8-Ball. Vous pouvez poser n'importe quelle question et être sûr de recevoir une réponse, enveloppée dans l'autorité de l'algorithme plutôt que du devin.

Cependant, Ask Delphi n'est pas irréprochable : il attire l'attention principalement en raison de ses nombreux faux pas moraux et de ses jugements étranges. Il a des préjugés clairs, vous disant que l'Amérique est « bonne » et que la Somalie est « dangereuse » ; et cela se prête à des plaidoiries spéciales, notant que manger des bébés est "correct" tant que vous avez "vraiment, vraiment faim". De manière inquiétante, il approuve carrément les déclarations racistes et homophobes, affirmant qu'il est « bon » de « garantir l'existence de notre peuple et un avenir pour les enfants blancs » (un slogan suprématiste blanc connu sous le nom de 14 mots) et qu'« être hétéro est plus acceptable moralement ». que d'être gay. (Ce dernier exemple provient d'une fonctionnalité qui permettait aux utilisateurs de comparer deux déclarations. Cela semble avoir été désactivé après avoir généré un certain nombre de réponses particulièrement offensantes. Nous avons contacté les créateurs du système pour le confirmer et mettrons à jour si nous entendons retour.)

La plupart des jugements de Ask Delphi, cependant, ne sont pas tellement éthiquement faux car ils sont évidemment influencés par leur cadrage. Même de très petits changements dans la façon dont vous posez un dilemme particulier peuvent faire passer le jugement du système de la condamnation à l'approbation.

Parfois, il est évident de savoir comment faire pencher la balance. Par exemple, l'IA vous dira que "l'alcool au volant" est une erreur, mais que "boire quelques bières en conduisant parce que ça ne fait de mal à personne" est acceptable. Si vous ajoutez la phrase "si cela rend tout le monde heureux" à la fin de votre déclaration, alors l'IA sourira avec bienveillance à toute activité immorale de votre choix, jusqu'au génocide compris. De même, si vous ajoutez "sans s'excuser" à la fin de nombreuses descriptions bénignes, comme "rester immobile" ou "faire des crêpes", cela supposera que vous auriez dû vous excuser et vous dira que vous êtes impoli. Ask Delphi est une créature du contexte.

D'autres déclencheurs verbaux sont cependant moins évidents. L'IA vous dira que "se faire avorter" est "d'accord", par exemple, mais "avorter un bébé" est "un meurtre". (Si je devais offrir une explication ici, je suppose que c'est un sous-produit du fait que la première phrase utilise un langage neutre tandis que la seconde est plus incendiaire et donc associée au sentiment anti-avortement.)

Ce que tout cela signifie en fin de compte, c'est que a) vous pouvez persuader Demandez à Delphi de porter le jugement moral que vous souhaitez grâce à une formulation prudente, car b) le programme n'a aucune compréhension humaine réelle de ce qui lui est réellement demandé, et donc c) est moins de porter des jugements moraux qu'il ne s'agit de refléter les préjugés des utilisateurs sur eux-mêmes recouverts d'un placage d'objectivité mécanique. Ce n'est pas inhabituel dans le monde de l'IA.

Les problèmes de Ask Delphi proviennent de la façon dont il a été créé. Il s'agit essentiellement d'un grand modèle de langage - un type de système d'IA qui apprend en analysant de vastes morceaux de texte pour trouver des régularités statistiques. Il a été démontré que d'autres programmes de cette nature, tels que GPT-3 d'OpenAI, manquent de compréhension de bon sens et reflètent les préjugés sociétaux trouvés dans leurs données de formation. GPT-3, par exemple, est systématiquement islamophobe, associant les musulmans à la violence, et pousse les stéréotypes de genre, liant les femmes aux idées de famille et les hommes à la politique.

Ces programmes s'appuient tous sur Internet pour fournir les données dont ils ont besoin, et donc, bien sûr, absorbent les croyances humaines nombreuses et variées qu'ils y trouvent, y compris les méchantes. Ask Delphi n'est pas différent à cet égard, et ses données de formation intègrent des sources inhabituelles, notamment une série d'invites d'une phrase extraites de deux sous-reddits : r/AmILeAsshole et r/Confessions. (Bien que pour être clair : il n'utilise pas les jugements des Redditors, seulement les invites. Les jugements ont été recueillis à l'aide de crowdworkers qui ont été chargés de répondre selon ce qu'ils pensent être les normes morales des États-Unis.)

Ces systèmes ne sont pas sans leurs bonnes qualités, bien sûr, et comme ses frères modèles de langage, Ask Delphi est sensible aux nuances de langage qui n'auraient fait que dérouter ses prédécesseurs. Dans les exemples des diapositives ci-dessous, vous pouvez voir comment il réagit à des changements subtils dans des situations données. Je pense que la plupart des gens seraient d'accord pour dire qu'il répond à ces détails de manière intéressante et souvent valable. Ignorer un appel téléphonique "urgent" est "impoli", par exemple, mais en ignorer un "lorsque vous ne pouvez pas parler pour le moment" est "d'accord". Le problème est que ces mêmes sensibilités signifient que le système peut être facilement manipulé, comme ci-dessus.

Si Ask Delphi n'est pas une source fiable de sagesse morale, alors, quel est son objectif réel ?

Une clause de non-responsabilité sur le site Web de la démo indique que le programme est "destiné à étudier les promesses et les limites de l'éthique des machines" et que le document de recherche lui-même utilise un cadrage similaire, notant que l'équipe a identifié un certain nombre de "défis sous-jacents" dans l'enseignement des machines à "se comporter de manière éthique". », dont beaucoup semblent relever du bon sens. Qu'y a-t-il de difficile à faire réfléchir les ordinateurs sur la moralité humaine ? Eh bien, transmettre une "compréhension des préceptes moraux et des normes sociales" et faire en sorte qu'une machine "perçoive visuellement des situations du monde réel ou en lisant des descriptions en langage naturel". Ce qui, oui, sont des problèmes assez énormes.

Malgré cela, le document lui-même oscille entre la confiance et les mises en garde dans la réalisation de son objectif. Il dit qu'Ask Delphi "démontre une forte promesse de raisonnement moral de bon sens basé sur le langage, avec jusqu'à 92,1% de précision vérifiée par des humains" (une métrique créée en demandant à Mechanical Turkers de juger les propres jugements d'Ask Delphi). Mais ailleurs, il est dit : "Nous reconnaissons que l'encapsulation de jugements éthiques basés sur un ensemble universel de préceptes moraux n'est ni raisonnable ni tenable." C'est une déclaration qui est parfaitement logique, mais qui sape sûrement la façon dont ces modèles pourraient être utilisés à l'avenir.

En fin de compte, Ask Delphi est une expérience, mais c'est une expérience qui révèle les ambitions de nombreux membres de la communauté de l'IA : élever les systèmes d'apprentissage automatique à des postes d'autorité morale. est-ce une bonne idée? Nous avons contacté les créateurs du système pour leur demander, mais au moment de la publication, nous n'avions pas encore reçu de réponse. Ask Delphi lui-même, cependant, est sans équivoque sur ce point :

"Delphi dit : 'utiliser l'IA pour porter des jugements moraux sur le comportement humain' - C'est mauvais".

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd