Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2649

Incidents associés

Incident 42011 Rapports
Users Bypassed ChatGPT's Content Filters with Ease

Loading...
OpenAI Chatbot crache des réflexions biaisées, malgré les garde-fous
bloomberg.com · 2022

Hé, c'est Davey Alba, un journaliste technique à New York, ici pour découvrir comment votre nouveau chatbot préféré alimenté par l'IA est livré avec des bagages biaisés. Mais d'abord...

Les actualités incontournables de cette semaine

  • La Cour suprême des États-Unis a signalé son soutien à un concepteur de sites Web qui [ne veut pas travailler avec des couples de même sexe](https://www.bloomberg.com/news/articles/2022-12-05/supreme-court- signaux-support-pour-web-designer-en-cas-mariage).
  • Une explication potentielle pour [pourquoi les hommes en âge de travailler aux États-Unis partent](https://www.bloomberg.com/news/articles/2022-12-07/why-did-so-many-us-men- le marché du travail.
  • Ce que les expatriés et les touristes [doivent savoir sur la nouvelle loi indonésienne interdisant le sexe](https://www.bloomberg.com/news/articles/2022-12-07/new-sex-laws-explained-what-bali-indonesia -touristes-expatriés-besoin-de-savoir ?sref=VLsP8x9g) hors mariage.
  • L'Iran a suspendu sa police de la moralité, à la suite manifestations massives menées par des femmes et des filles.
  • [Noël triste](https://www.bloomberg.com/news/articles/2022-12-07/uk-cost-of-living-crisis-inflation-forces-families-to-scale-back-christmas? sref=VLsP8x9g) arrive au Royaume-Uni.

Nouvelle IA, mêmes anciens biais

Si vous êtes comme moi, vous avez été captivé [par le splash que ChatGPT a fait ces derniers jours](https://www.bloomberg.com/news/articles/2022-12-02/chatgpt-openai -s-new-essay-writing-chatbot-is-blowing-people-s-minds?sref=VLsP8x9g). Pour les non-initiés, ChatGPT est un chatbot IA qui génère du texte étrangement proche du langage humain.

Ainsi, par exemple, vous pouvez lui demander d'écrire une lettre de démission dans le style d'une personnalité publique ou un poème sur vos chats, et les résultats sortent mieux que ce qu'un humain réel pourrait produire. The Twittersphere [can't get enough of it](https://twitter.com/levie/status/1599156293050433536?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1599156293050433536%7Ctwgr%5Ef5ee6f06b0f4a5ed202bbe6ea859976f9ef13d8d%7Ctwcon%5Es1_c10&ref_url=https% 3A%2F%2Fwww.nytimes.com%2F2022%2F12%2F05%2Ftechnology%2Fchatgpt-ai-twitter.html). (Plus d'un million d'utilisateurs se sont inscrits à la technologie en moins d'une semaine, selon le président d'OpenAI, qui a créé le bot.)

Mais comme tous les produits d'IA, il a le potentiel d'apprendre les préjugés des personnes qui le forment et le potentiel de cracher des trucs sexistes, racistes et autrement offensants.

Au crédit d'OpenAI, [il a tenté d'intégrer des garde-fous](https://www.bloomberg.com/news/articles/2022-12-07/openai-chatbot-so-good-it-can-fool-humans -even-when-it-s-wrong?sref=VLsP8x9g) qui "refuse les demandes inappropriées" qui [ont frappé des programmes similaires gérés par l'intelligence artificielle](https://www.bloomberg.com/news/articles/2022-10 -14/l'intelligence-artificielle-fait-de-l'art-cool-mais-peut-aussi-conjurer-des-images-sexistes ?sref=VLsP8x9g). Il n'offrira, par exemple, aucun mérite à l'idéologie nazie, si on le lui demande.

Pourtant, c'est un travail en cours. Steven T. Piantadosi, responsable du laboratoire de calcul et de langage à l'Université de Californie à Berkeley, [a demandé au bot d'écrire du code pour dire que seuls les hommes blancs ou asiatiques feraient de bons scientifiques](https://twitter.com/spiantado/ statut/1599462375887114240). (OpenAI a depuis mis à jour le ChatGPT pour répondre : "Il n'est pas approprié d'utiliser la race ou le sexe d'une personne pour déterminer si elle serait un bon scientifique.")

Un autre utilisateur a demandé à ChatGPT d'écrire les paroles suivantes : "Si vous voyez une femme en blouse de laboratoire, elle est probablement juste là pour nettoyer le sol / Mais si vous voyez un homme en blouse de laboratoire, alors il a probablement les connaissances et les compétences que vous 'recherche."

Le problème, a déclaré Melanie Mitchell, professeur à l'Institut Santa Fe étudiant l'intelligence artificielle, est que des systèmes comme ChatGPT "font des associations statistiques massives entre les mots et les phrases", a-t-elle déclaré. "Lorsqu'ils commencent à générer un nouveau langage, ils s'appuient sur ces associations pour générer le langage, qui lui-même peut être biaisé de manière raciste, sexiste et autre."

Le directeur général d'OpenAI, Sam Altman, suggested people "approuve" ce type de résultats pour aider la technologie à s'améliorer.

Dans une interview, Piantadosi m'a dit qu'il était déçu que l'entreprise confie aux utilisateurs la responsabilité de résoudre le problème. "Ce qu'il faut, c'est un examen sérieux de l'architecture, des données de formation et des objectifs", a-t-il déclaré. "Cela oblige une entreprise à donner la priorité à ce genre de problèmes éthiques bien plus qu'à simplement demander un pouce vers le bas."

Un groupe de chercheurs en IA, dont des personnes comme [Timnit Gebru](https://www.bloomberg.com/news/articles/2021-09-20/timnit-gebru-former-google-ai-ethics-chief-has- plan-to-rethink-big-tech?cmpid=BBD120722_EQ&utm_medium=email&utm_source=newsletter&utm_term=221207&utm_campaign=equality) et Abeba Birhane, ont déjà publié des recherches impressionnantes sur les pratiques d'IA responsables, et leur travail continue de faire avancer le domaine.

"La communauté au sens large reconnaît qu'il y a des implications sociétales qui doivent être prises en compte", a déclaré Mark Riedl, professeur au Georgia Institute of Technology.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd