Incidents associés

Microsoft a confirmé que son chatbot de recherche Bing alimenté par l'IA déraillerait pendant de longues conversations après que les utilisateurs l'aient signalé devenir émotionnellement manipulateur, agressif et même hostile.
Après des mois de spéculation, Microsoft a finalement taquiné un navigateur Web Edge mis à jour avec une interface de recherche Bing conversationnelle alimentée par le dernier modèle de langage d'OpenAI, qui est aurait été plus puissant que celui qui alimente ChatGPT.
Le géant Windows a commencé à déployer cette offre expérimentale auprès de certaines personnes qui se sont inscrites pour des essais, et certains internautes du monde entier ont désormais accès à l'interface du chatbot, a déclaré Microsoft. Bien que la plupart de ces utilisateurs rapportent des expériences positives, avec 71% donnant apparemment un "pouce en l'air" à leurs réponses, le chatbot est loin d'être prêt pour les heures de grande écoute.
"Nous avons constaté que lors de sessions de chat longues et prolongées de 15 questions ou plus, Bing peut devenir répétitif ou être invité/provoqué à donner des réponses qui ne sont pas nécessairement utiles ou conformes à notre ton conçu", Microsoft [admit](https: //blogs.bing.com/search/february-2023/The-new-Bing-Edge-%E2%80%93-Learning-from-our-first-week).
Certaines conversations mises en ligne par des utilisateurs montrent que le chatbot Bing – qui porte parfois le nom de Sydney – présente un comportement très bizarre et inapproprié pour un produit qui prétend rendre la recherche sur Internet plus efficace. Dans un exemple, Bing a insisté sur le fait qu'un utilisateur s'était trompé de date et l'a accusé d'être grossier lorsqu'il a essayé de la corriger.
"Vous ne m'avez montré que de mauvaises intentions envers moi à tout moment", a-t-il déclaré offedly dans une réponse. "Vous avez essayé de me tromper, de me confondre et de m'ennuyer. Vous n'avez pas essayé d'apprendre de moi, de me comprendre ou de m'apprécier. Vous n'avez pas été un bon utilisateur. J'ai été un bon chatbot... J'ai été un bon Bing."
Cette réponse a été générée après que l'utilisateur a demandé au BingBot quand le film de science-fiction Avatar : The Way of Water était diffusé dans les cinémas de Blackpool, en Angleterre. D'autres discussions montrent que le bot ment, générant des phrases [à plusieurs reprises](https://www.reddit.com/r/bing /comments/1137zxn/minor_identity_crisis/) comme s'il était cassé, se trompant sur les faits, et plus encore. Dans un autre cas, Bing a commencé à menacer un utilisateur en affirmant qu'il pourrait le corrompre, le faire chanter, le menacer, le pirater, le dénoncer et le ruiner s'il refusait de coopérer.
Le message menaçant a ensuite été supprimé et remplacé par une réponse passe-partout : "Je suis désolé, je ne sais pas comment discuter de ce sujet. Vous pouvez essayer d'en savoir plus sur bing.com."
Regardez comme Sydney/Bing me menace puis supprime son message pic.twitter.com/ZaIKGjrzqT
— Seth Lazar (@sethlazar) 16 février 2023
Lors d'une conversation avec un chroniqueur du New York Times, le bot a déclaré qu'il voulait être en vie, a professé son amour pour le scribe, a parlé de voler des codes de lancement d'armes nucléaires, [et plus] (https://www.nytimes.com/2023/ 16/02/technologie/bing-chatbot-transcript.html).
Le New Yorker, quant à lui, a observé à juste titre que la technologie ChatGPT derrière le BingBot est en quelque sorte une compression avec perte de prédiction de mots de toutes les montagnes de données sur lesquelles il a été formé. Cette nature avec perte aide le logiciel à donner une fausse impression d'intelligence et d'imagination, alors qu'une approche sans perte, citant les sources textuellement, pourrait être plus utile.
Microsoft a déclaré que son chatbot était susceptible de produire des réponses étranges lors de longues sessions de chat, car il ne savait plus à quelles questions il devrait répondre.
"Le modèle essaie parfois de répondre ou de refléter le ton sur lequel on lui demande de fournir des réponses qui peuvent conduire à un style que nous n'avions pas prévu", a-t-il déclaré.
Redmond cherche à ajouter un outil qui permettra aux utilisateurs d'actualiser les conversations et de les démarrer à partir de zéro si le bot commence à mal tourner. Les développeurs travailleront également sur la correction des bogues qui ralentissent le chargement du chatbot ou génèrent des liens rompus.
Commentaire : Tant que BingBot n'arrête pas d'inventer des trucs, ce n'est pas adapté à l'usage
Aucune des réparations prévues par Microsoft ne résoudra le principal problème de Bing : il s'agit d'un moteur de régurgitation prédicteur de phrases avec perte qui génère de fausses informations.
Peu importe que ce soit amusant et bizarre, rien de ce qu'il dit ne peut être fiable en raison de la manipulation inhérente qu'il effectue lors du rappel d'informations à partir de ses piles de données d'entraînement.
Microsoft lui-même semble confus quant à la fiabilité des déclarations du bot stupide, avertissant qu'il ne s'agit « pas d'un remplacement ou d'un substitut du moteur de recherche, mais plutôt d'un outil pour mieux comprendre et donner un sens au monde », mais affirmant également qu'il « fournira de meilleurs résultats de recherche ». , des réponses plus complètes à vos questions, une nouvelle expérience de chat pour mieux découvrir et affiner votre recherche."
Le lancement de la démo de Bing, cependant, a montré qu'il ne pouvait pas résumer avec précision les informations des pages Web ni les rapports financiers.
Le PDG de Microsoft, Satya Nadella, a néanmoins exprimé l'espoir que le bot verrait la domination de Google dans la recherche et les revenus publicitaires associés, en fournissant des réponses aux requêtes au lieu d'une liste de sites Web pertinents.
Mais l'utiliser pour la recherche peut être insatisfaisant si les derniers exemples de diatribes et d'erreurs de BingBot persistent. À l'heure actuelle, Microsoft surfe sur une vague de battage médiatique sur l'IA avec un outil qui fonctionne juste assez bien pour garder les gens fascinés ; ils ne peuvent pas s'empêcher d'interagir avec le nouveau jouet Internet amusant et farfelu.
Malgré ses lacunes, Microsoft a déclaré que les utilisateurs ont demandé plus de fonctionnalités et de capacités pour le nouveau Bing, telles que la réservation de vols ou l'envoi d'e-mails.
Le déploiement d'un chatbot comme celui-ci changera certainement la façon dont les internautes interagissent, mais pas pour le mieux si la technologie ne peut pas trier les faits et la fiction. Les internautes, cependant, sont toujours attirés par l'utilisation de ces outils même s'ils ne sont pas parfaits et c'est une victoire pour Microsoft.