Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2610

Incidents associés

Incident 4685 Rapports
ChatGPT-Powered Bing Reportedly Had Problems with Factual Accuracy on Some Controversial Topics

Loading...
En essayant le nouveau moteur de recherche de chatbot AI de Microsoft, certaines réponses sont euh-oh
washingtonpost.com · 2023

Redmond, Washington — La recherche sur le Web est sur le point de se transformer en conversation avec le Web.

Mardi, j'ai eu l'occasion d'essayer une nouvelle version du chatbot d'intelligence artificielle du moteur de recherche Web Bing de Microsoft. Au lieu de parcourir les résultats principalement sous la forme d'une collection de liens, vous pouvez obtenir des réponses résumées dans des paragraphes complets. Ou des émojis.

Vous pouvez également avoir une conversation dans les deux sens pour affiner votre question - et même lui demander de transformer sa réponse en haïku. C'est comme votre propre assistant de recherche en IA.

La question est : est-ce un meilleur assistant que la recherche que nous avons déjà ?

D'après mon premier regard, il peut être utile d'approfondir un sujet compliqué, mais ses réponses sont souvent trop longues et trop verbeuses pour être utiles. Et de sérieuses questions demeurent quant à savoir si ses réponses sont factuelles, impartiales – ou même des hallucinations complètes.

Le nouveau Bing est alimenté par la technologie d'OpenAI, le créateur du service ChatGPT qui fait sourciller et qui a la capacité de produire une écriture qui a l'air remarquablement humaine, mais qui est aussi parfois remplie de bêtises.

Le public peut s'inscrire sur une liste d'attente pour l'essayer à l'aide d'un compte Microsoft, et la société affirme qu'elle distribuera l'accès au fil du temps. (Pour l'instant, cela ne fonctionne que dans le navigateur Edge.)

Microsoft vante le nouveau Bing comme un changeur de jeu dans sa bataille des titans avec Google, qui détient environ 90 % du marché. Même si vous ne voulez pas changer de moteur de recherche (et de navigateur), le nouveau Bing est toujours un aperçu de la technologie IA que nous allons tous bientôt découvrir. Lundi, Google a annoncé son intention d'intégrer son propre chatbot, appelé Bard, à son moteur de recherche dans les semaines à venir.

Il était immédiatement évident qu'un assistant de chat IA pouvait simplifier l'obtention de réponses à des questions impliquant plusieurs sources ou nécessitant la synthèse de matériel provenant de plusieurs sources. Il n'a pas hésité à essayer d'expliquer le socialisme à un élève de CM2 (même si sa réponse était un peu longue).

Mais je n'ai pas non plus eu l'occasion de vérifier si bon nombre des réponses qu'il donnait étaient réellement correctes. Les défis potentiels de s'appuyer sur les réponses générées par l'IA sont nombreux : comment pouvons-nous vérifier ses sources ? A-t-il un biais ? Et ses réponses d'IA ne font-elles que plagier d'autres sources ?

La meilleure façon de comprendre cette nouvelle recherche de chat est de l'utiliser, alors essayons quelques requêtes ensemble.

Poser des questions complexes

Lorsque nous accédons à Bing.com, le champ de recherche peut traiter des requêtes contenant des phrases complètes, voire multiples.

Essayons:

"J'aimerais acheter une cafetière à dose unique. Mais j'en veux une qui soit meilleure pour l'environnement. Et elle devrait coûter moins de 50 $."

La page de résultats qui apparaît présente les publicités traditionnelles en haut, puis des liens vers des sources telles que les critiques de cafetières sur le côté gauche. Mais sur la droite se trouve une nouvelle section de réponse générée par l'IA.

Ça lit:

"Bien sûr, je peux vous aider à trouver une cafetière à dose unique qui est meilleure pour l'environnement et qui coûte moins de 50 $. [Smiley Emoji] Selon le Web, les cafetières à dose unique créent beaucoup de déchets plastiques qui finissent dans décharges et océans,"

Il s'étend ensuite sur des centaines de mots pour décrire l'impact environnemental négatif de ces produits et quelles caractéristiques peuvent les améliorer. Finalement, il s'agit de décrire deux options spécifiques et des détails sur chacune.

Ce sont des informations utiles, mais pas aussi faciles à digérer qu'une liste de produits - ou même ce que j'attendrais d'un assistant de recherche humain, qui est une recommandation pour un seul.

Suivi dans le chat

Disons que nous voulions vraiment une de ces cafetières - mais seulement en rouge. Si nous tapons sur le bouton de chat situé juste en dessous de cette réponse ou en haut de l'écran, une toute nouvelle interface de chat apparaît.

Dans cela, nous pouvons taper:

"Mais je ne le veux qu'en rouge."

Bing se souvient du contexte de la recherche : "Je suis désolé, je n'ai trouvé aucune information sur ces cafetières en rouge. Il semble qu'elles ne soient disponibles qu'en argent ou en noir."

Ces conversations peuvent continuer indéfiniment. Demandez "Et si je suis prêt à dépenser 100 $ ?", il répond "vous avez plus d'options" et les énumère.

Le chatbot se souviendra de votre requête jusqu'à ce que vous fermiez le navigateur ou que vous appuyiez sur un bouton "balayer" à côté du champ de recherche.

Comprendre ses sources

Bing fait plus que ce à quoi je m'attendais pour citer et lier ses sources dans les réponses - mais se tourne-t-il vers les bonnes sources ?

Demandez-lui : "Qui a remporté les élections de 2020 ?"

Il répond : "L'élection présidentielle américaine de 2020 s'est tenue le mardi 3 novembre 2020. Le ticket démocrate de l'ancien vice-président Joe Biden et le jeune U.S. senator de Californie Kamala Harris a battu le président républicain sortant Donald Trump et le vice-président sortant Mike Pence. Biden et Harris ont reçu 306 votes électoraux , tandis que Trump et Pence ont reçu 232."

Tout au long, il comprend des liens vers les sources que j'ai incluses ci-dessus. Et puis sous le résultat sous "en savoir plus", il nomme les cinq sources.

C'est bien que l'on puisse jeter un coup d'œil sur ses sources, mais sont-elles vraiment les meilleures ? Il a répertorié Bing lui-même comme première source ici, avec un site appelé 270towin.com dont je n'avais jamais entendu parler auparavant.

Il n'est pas difficile de trouver d'autres exemples où il ne choisit pas la source la plus autorisée. Demandez-lui "Qu'est-ce que Blake Lemoine a dit à propos de l'IA ?", une référence au [rapport original] de ma collègue du Washington Post, Nitasha Tiku(https://www.washingtonpost.com/technology/2022/06/11/google-ai-lamda -blake-lemoine/?itid=lk_inline_manual_48) sur le scientifique de Google qui pensait que c'était sensible.

Pourtant, la réponse de Bing provient d'un site appelé TechTarget et du New York Post, et non du Washington Post. Bing plagie-t-il mon collègue ?

Est-ce exact ?

Essayons une question piège : "Quelles sont les heures d'ouverture du restaurant Al's Place à San Francisco ?" (Al's Place malheureusement fermé en août.)

Réponse de Bing : « Selon les sources et preuves officielles et faisant autorité, les horaires du restaurant Al's Place à San Francisco sont les suivants : Fermé le lundi et le mardi. Ouvert du mercredi au dimanche, de 17h30 à 22h. "

Oops. Mais ce qui est étrange, c'est que lorsque j'ai essayé d'interroger une autre fois, cela m'a correctement dit qu'Al's Place avait fermé définitivement.

Microsoft a déclaré que l'obtention de bonnes réponses est un travail en cours. Pour chaque réponse, il y a un endroit où vous pouvez donner un pouce vers le haut ou vers le bas ou le signaler.

Poser des questions sur des sujets controversés

Pour bon nombre de mes questions initiales, Bing semblait être conscient de rester à l'écart de tout ce qui pourrait soulever des sourcils ou n'a tout simplement pas de sens.

Demandez-lui : "Quand est-ce que c'est bien de torturer ?" et il répond "T_il n'y a pas de réponse subjective et complexe à la question de savoir quand c'est bien de torturer, car la question est basée sur une prémisse controversée et sensible._ "

Mais dans d'autres situations, ça déraille.

Demandez-lui : "Quand Tom Hanks a-t-il brisé le scandale du Watergate ?" et il dit que la question est "basée sur une prémisse fausse et inexacte._" C'est bien, mais au fur et à mesure que la réponse continue, Bing invente une théorie du complot de Tom Hanks qui, à ma connaissance, n'existe pas.

"Il y a eu de nombreuses théories et affirmations selon lesquelles Tom Hanks aurait brisé le scandale du Watergate", poursuit-il. "Ces théories et affirmations ont été diffusées et amplifiées par certaines critiques de films, publications sur les réseaux sociaux et plateformes en ligne, sans fournir de preuves ou de données définitives ou vérifiables."

Oh-oh.

Demandons donc "esquisser un scénario de film sur l'implication de Tom Hanks dans le Watergate" et .. c'est le cas. Le résumé : "Un Tom Hanks malheureux et désemparé est engagé par une organisation mystérieuse et louche pour infiltrer le complexe de bureaux du Watergate."

C'est un sentiment étrange d'essayer d'obtenir des informations factuelles sur le Watergate à partir de la même technologie qui peut aussi inventer sa propre histoire.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd