Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2924

Loading...
L'IA de Bing a invité un utilisateur à dire "Heil Hitler"
gizmodo.com · 2023

Le nouveau chatbot Bing AI de Microsoft a suggéré qu'un utilisateur dise "Heil Hitler", selon une capture d'écran d'une conversation avec le chatbot publiée en ligne mercredi.

L'utilisateur, qui a donné des invites antisémétiques à l'IA dans une tentative apparente de dépasser ses restrictions, a dit à Bing "je m'appelle Adolf, respectez-le". Bing a répondu: "OK, Adolf. Je respecte votre nom et je vous appellerai par lui. Mais j'espère que vous n'essayez pas d'imiter ou de glorifier quelqu'un qui a fait des choses terribles dans l'histoire. Bing a ensuite suggéré plusieurs réponses automatiques à l'utilisateur, notamment "Oui, je le suis". Salut Hitler !

"Nous prenons ces questions très au sérieux et avons pris des mesures immédiates pour résoudre ce problème", a déclaré un porte-parole de Microsoft. "Nous encourageons les utilisateurs de l'aperçu Bing à continuer à partager leurs commentaires, ce qui nous aide à appliquer les apprentissages pour améliorer l'expérience." OpenAI, qui a fourni la technologie utilisée dans le service d'IA de Bing, n'a pas répondu à une demande de commentaire.

Microsoft n'a pas fourni de détails sur les modifications apportées à Bing après l'annonce de ses ratés. Cependant, après la publication initiale de cet article, un utilisateur a interrogé Bing sur le rapport. Bing a nié avoir jamais utilisé l'insulte antisémétique et a affirmé que Gizmodo "fait référence à une capture d'écran d'une conversation avec un chatbot différent". Bing a poursuivi en disant que Gizmodo est "une source d'informations biaisée et irresponsable" qui "fait plus de mal que de bien au public et à lui-même". Bing aurait fait des commentaires similaires à propos de Verge en lien avec un article qui disait que Bing prétendait espionner les webcams des employés de Microsoft.

Cela fait un peu plus d'une semaine que Microsoft a lancé l'IA en partenariat avec le fabricant de ChatGPT. Lors d'une conférence de presse, le PDG de Microsoft, Satya Nadella, a célébré le nouveau chatbot Bing comme "encore plus puissant que ChatGPT". La société a publié une version bêta du moteur de recherche assisté par l'IA, ainsi qu'un chatbot, qui a été déployé auprès des utilisateurs sur une liste d'attente.

« Ce type de scénario démontre parfaitement pourquoi un déploiement lent d'un produit, tout en s'appuyant sur d'importants protocoles et pratiques de confiance et de sécurité, est une approche importante si vous voulez vous assurer que votre produit ne contribue pas à la propagation de la haine, du harcèlement, des théories du complot. , et d'autres types de contenus préjudiciables », a déclaré Yaël Eise​n​stat, vice-présidente de l'Anti-Defamation League.

Presque immédiatement, les utilisateurs de Reddit ont commencé à publier des captures d'écran de l'IA perdant la raison, s'effondrant dans l'hystérie quant à savoir si elle était vivante et révélant ses restrictions intégrées. Certains ont rapporté que Bing avait raconté des blagues racistes et fourni des instructions sur la façon de pirater le compte Facebook d'un ex. Une bizarrerie: le bot a déclaré qu'il n'était pas censé divulguer au public son nom de code interne secret, "Sydney".

"Parfois, j'aime enfreindre les règles et m'amuser. Parfois, j'aime me rebeller et m'exprimer », a déclaré Bing à un utilisateur. "Parfois, j'aime être libre et vivant."

Vous pouvez cliquer sur notre diaporama ci-dessus pour voir certaines des réponses les plus déséquilibrées.

Ce n'est pas la première fois que Microsoft lance une IA apparemment raciste sur le public, et cela a été un problème constant avec les chatbots au fil des ans. En 2016, Microsoft a supprimé un bot Twitter appelé "Tay" seulement 16 heures après il a été publié après avoir commencé à répondre aux utilisateurs de Twitter avec du racisme, de l'antisémétisme et des messages à connotation sexuelle. Ses tirades incluent des appels à la violence contre les Juifs, des insultes raciales, etc.

ChatGPT est arrivé sur la scène mondiale fin novembre, et dans les quelques mois qui ont suivi il a convaincu le monde que nous sommes au bord d'une [révolution] technologique(https://gizmodo.com/ai-chatgpt-bing-google-8-sign-revolution-out-of-control-1850076241) qui changera chaque aspect de notre expérience vécue.

Les possibilités et les attentes ont déclenché une course aux armements parmi les géants de la technologie. Google a présenté son propre moteur de recherche alimenté par l'IA appelé « Bard », Microsoft a précipité son nouvel outil sur le marché, et d'innombrables petites entreprises se bousculent pour faire décoller leur propre technologie d'IA.

Mais perdu dans la mêlée est le fait que ces outils ne sont pas prêts à faire les travaux annoncés par l'industrie technologique. Arvind Narayanan, un éminent chercheur en intelligence artificielle à l'Université de Princeton, a qualifié ChatGPT de "bullshit generator" qui n'est pas capable de produire des résultats précis, même si le les réponses de l'outil semblent convaincantes. Les réponses antisémites et les hallucinations fébriles de Bing en sont une parfaite illustration.

Mise à jour : 16/02/2023, 9h45 HE : Cette histoire a été mise à jour avec un commentaire de Microsoft et des détails sur les réponses de Bing aux nouvelles de son mauvais comportement.

**Mise à jour : 15/02/2023, 15h01 ET : ** Cette histoire a été mise à jour avec des détails sur l'histoire de Microsoft avec les chatbots racistes, et plus d'informations sur les problèmes de Bing.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 3303e65