Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2726

Incidents associés

Incident 4776 Rapports
Bing Chat Tentatively Hallucinated in Extended Conversations with Users

Loading...
Microsoft limite les conversations Bing AI à 5 réponses pour maintenir les conversations normales
cnet.com · 2023

Microsoft limite le nombre de personnes pouvant converser avec son [IA chatbot] Bing (https://www.cnet.com/tech/computing/why-were-all-obsessed-with-the-mind-blowing-chatgpt-ai- chatbot/), suite à la médiatisation du bot qui déraille lors de longs échanges.

Bing Chat répondra désormais à un maximum de cinq questions ou déclarations consécutives pour chaque conversation, après quoi les utilisateurs seront invités à démarrer un nouveau sujet, a déclaré la société dans un [article de blog](https://blogs.bing.com /search/february-2023/The-new-Bing-Edge-%E2%80%93-Updates-to-Chat#link=%7B%22role%22:%22standard%22,%22href%22:%22https : //blogs.bing.com/search/february-2023/The-new-Bing-Edge-%E2%80%93-Updates-to-Chat%22,%22target%22:%22%22,%22linkText% 22 : %22blog%20post%22,%22absolute%22 :%22%22%7D) vendredi. Les utilisateurs seront également limités à 50 réponses au total par jour.

Les restrictions visent à empêcher les conversations de devenir bizarres. Microsoft a déclaré que de longues discussions "peuvent confondre le modèle de chat sous-jacent".

Mercredi, la société avait déclaré qu'elle [travaillait pour résoudre les problèmes avec Bing](https://www.cnet.com/tech/services-and-software/microsoft-will-try-to-fix-bing-ais-errors -and-bizarre-chats/#link=%7B%22role%22:%22standard%22,%22href%22:%22https://www.cnet.com/tech/services-and-software/microsoft-will- essayez-de-réparer-les-erreurs-bing-ais-et-les-chats-bizarres/%22,%22target%22:%22%22,%22absolute%22:%22%22,%22linkText%22:%22Microsoft%20reconnu %22%7D), lancé un peu plus d'une semaine auparavant, avec des erreurs factuelles et des échanges impairs. Les réponses bizarres rapportées en ligne ont inclus Bing racontant à un chroniqueur du New York Times d'abandonner son mariage pour le chatbot et l'IA [exigeant des excuses d'un utilisateur de Reddit](https://www.reddit.com/r/bing/comments/110eagl/the_customer_service_of_the_new_bing_chat_is/#link=%7B%22role%22:%22standard%22, %22href%22 : %22https://www.reddit.com/r/bing/comments/110eagl/the_customer_service_of_the_new_bing_chat_is/%22,%22target%22 :%22%22,%22absolute%22 :%22%22,% 22linkText%22 :%22demandant%20des%20excuses%20de%20a%20Reddit%20utilisateur%22%7D) que nous soyons en 2022 ou 2023.

Les réponses du chatbot ont également inclus [des erreurs factuelles](https://www.cnet.com/tech/computing/bing-ai-bungles-search-results-at-times-just-like-google/#link=%7B %22role%22 : %22standard%22,%22href%22 :%22https://www.cnet.com/tech/computing/bing-ai-bungles-search-results-at-times-just-like-google/ %22,%22target%22 :%22%22,%22absolute%22 :%22%22,%22linkText%22 :%22factual%20errors%22%7D). Microsoft a déclaré mercredi qu'il était en train de peaufiner le modèle d'IA pour quadrupler la quantité de données à partir desquelles il peut trouver des réponses. La société a déclaré que cela donnerait également aux utilisateurs plus de contrôle sur s'ils veulent des réponses précises, qui proviennent de la technologie propriétaire Bing AI de Microsoft ou des réponses plus "créatives" qui utilisent la technologie ChatGPT d'OpenAI.

La fonctionnalité de chat AI de Bing est toujours en test bêta, avec des utilisateurs potentiels sur une liste d'attente pour l'accès. Avec cet outil, Microsoft espère prendre une longueur d'avance sur ce que certains disent être la [prochaine révolution](https://www.cnet.com/tech/services-and-software/chatgpt-is-going-to-be -partout-en-2023/) dans la recherche sur Internet.

La technologie ChatGPT a fait sensation lors de son lancement en novembre, mais OpenAI lui-même a mis en garde contre les pièges potentiels et Microsoft a reconnu les limites de l'IA. Malgré les qualités impressionnantes de l'IA, des inquiétudes ont été exprimées au sujet de l'intelligence artificielle être utilisé à des fins néfastes telles que la diffusion de désinformations et la diffusion [d'e-mails d'hameçonnage](https ://www.cnet.com/tech/services-and-software/its-scary-easy-to-use-chatgpt-to-write-phishing-emails/).

Avec les capacités d'intelligence artificielle de Bing, Microsoft aimerait également obtenir un saut sur la centrale de recherche Google, qui a annoncé son propre modèle de chat IA, Bard, la semaine dernière . Bard a eu ses propres problèmes avec des erreurs factuelles, [tâtonnant une réponse lors de sa première démo publique](https://www.cnet.com/science/space/googles-chatgpt-rival-bard-called-out-for-nasa -webb-space-télescope-erreur/).

Dans son article de blog de vendredi, Microsoft a suggéré que les nouvelles restrictions de chat de l'IA sont basées sur des informations glanées lors du test bêta.

"Nos données ont montré que la grande majorité d'entre vous trouvent les réponses que vous recherchez dans les 5 tours et que seulement ~ 1% des conversations de chat ont plus de 50 messages", a-t-il déclaré. "Alors que nous continuons à recevoir vos commentaires, nous explorerons l'extension des limites des sessions de chat pour améliorer encore les expériences de recherche et de découverte."

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd