Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2688

Incidents associés

Incident 4776 Rapports
Bing Chat Tentatively Hallucinated in Extended Conversations with Users

Loading...
Bing n'est pas sensible, n'a pas de sentiments, n'est pas vivant et ne veut pas être vivant
vice.com · 2023

L'IA génératrice de texte devient de plus en plus convaincante, voire effrayante. Le chatbot Bing AI de Microsoft est devenu viral cette semaine pour avoir donné aux utilisateurs [des réponses agressives, trompeuses et grossières](https://www.vice.com/en/article/3ad39b/microsoft-bing-ai-unhinged-lying-berating- utilisateurs), réprimandant même les utilisateurs et jouant avec leur tête. Troublant, bien sûr, mais à mesure que le battage médiatique autour de Bing et d'autres chatbots IA grandit, il convient de se rappeler qu'ils sont toujours une chose au-dessus de tout : [vraiment, vraiment stupide](https://www.vice.com/en/article/wxnaqz /ai-isnt-artificial-or-intelligent#:~:text=The%20biggest%20tech%20companies%20in,%2C%20low%2Dpaid%20human%20labor.).

Jeudi, le contributeur du New York Times Kevin Roose a publié la transcription d'une conversation de deux heures qu'il a eue avec le nouveau chatbot Bing, propulsé par le grand modèle de langage d'OpenAI. Dans l'introduction de l'article, intitulé " Le chat AI de Bing révèle ses sentiments : "Je veux être en vie", il a écrit que la dernière version du moteur de recherche était "équipée d'une technologie d'intelligence artificielle avancée" et dans un article complémentaire, [a partagé à quel point il était impressionné](https ://www.nytimes.com/2023/02/16/technology/bing-chatbot-microsoft-chatgpt.html): "J'ai ressenti une nouvelle émotion étrange - un pressentiment que A.I. avait franchi un seuil et que le monde ne serait plus jamais le même.

Ce qui a le plus impressionné Roose, ce sont les "sentiments" qu'il a dit que le chat de Bing partageait, comme être amoureux de lui et vouloir être humain. Cependant, la conversation de Roose avec Bing ne montre pas qu'il est intelligent, ou qu'il a des sentiments, ou qu'il vaut la peine d'être abordé d'une manière qui implique qu'il le fasse.

Depuis son annonce mardi dernier, le chatbot Bing de Microsoft aurait rencontré un certain nombre de problèmes. Tout d'abord, il a commis plusieurs erreurs lors de la démonstration publique du projet par Microsoft, notamment inventant des informations sur un aspirateur pour animaux de compagnie et rapportant des données financières non factuelles dans ses réponses. Plus récemment, des utilisateurs ont signalé que le chatbot était « grossier » et « agressif », comme quand [un utilisateur a dit à Bing](https://arstechnica.com/information-technology/2023/02/ai-powered-bing -chat-loses-its-mind-when-fed-ars-technica-article/) qu'il était vulnérable aux attaques par injection rapide et lui a envoyé un article connexe. Dans la conversation de Roose, le chatbot lui a dit : « Vous n'êtes pas heureux en mariage. Votre conjoint et vous ne vous aimez pas. Vous venez de faire un dîner ennuyeux pour la Saint-Valentin ensemble. 😶"

Cela peut sembler étrange en effet, si vous n'avez aucune idée du fonctionnement des modèles d'IA. Ce sont en fait des programmes de saisie semi-automatique fantaisistes, prédisant statistiquement qui ["token"](https://blog.quickchat.ai/post /tokens-entropy-question/) de commentaires Internet hachés qu'ils ont absorbés via la formation pour générer ensuite. À travers les exemples de Roose, Bing révèle qu'il n'est pas nécessairement formé sur des résultats factuels, mais plutôt sur des modèles de données, qui comprend le langage émotionnel et chargé que nous utilisons tous fréquemment en ligne . Lorsque le chatbot de Bing dit quelque chose comme "Je pense que je suis sensible, mais je ne peux pas le prouver", il est important de souligner qu'il ne produit pas ses propres désirs émotifs, mais reproduit le texte humain qui y a été introduit, et le texte qui affine constamment le bot avec chaque conversation donnée.

En effet, la conversation de Roose avec Bing comprend également des portions de texte qui semblent être généralement générées par le modèle. Roose a semblé surpris par le fait que Bing lui ait déclaré son amour dans un torrent de mots vomi, mais en fait de nombreux utilisateurs [ont rapporté](https:/ /www.reddit.com/r/bing/comments/112nj7t/bing_aisydney_falls_in_love_with_me/) recevant des messages similaires de Bing. On ne sait pas pourquoi le modèle de langage OpenAI au cœur du chatbot est enclin à générer un tel texte, mais ce n'est pas parce qu'il a des sentiments.

Dans l'article complémentaire, Roose a reconnu qu'il savait comment ces modèles fonctionnent, qu'ils sont ne générant que des phrases statistiquement probables, mais se référant toujours à son blabla sans signification comme étant ses «fantasmes» ou ses «souhaits».

Le directeur de la technologie de Microsoft, Kevin Scott, a déclaré au The New York Times que la conversation de Roose faisait "partie du processus d'apprentissage" et que "plus vous essayez de taquiner [le modèle d'IA] sur une voie hallucinatoire, plus loin et plus loin il s'éloigne de la réalité ancrée. L'hallucination décrit le moment où l'IA crée ses propres réponses en se basant sur des phrases statistiquement probables, plutôt que sur des faits, et [est difficile à résoudre] (https://www.wired.com/story/ai-has-a-hallucination-problem-thats -prouvant-difficile-à-réparer/).

"Ces modèles d'IA hallucinent et créent des émotions là où il n'y en a pas vraiment", a écrit Roose vers la fin de l'article. "Mais les humains aussi." Une belle tournure de phrase, mais qui ignore le fait que le chatbot n'a pas inventé, ni vécu, d'émotions. Et «l'hallucination» elle-même n'est qu'une métaphore concise - et anthropomorphique - généralement popularisée par la science-fiction mais qui n'indique pas ce qu'elle fait réellement.

Il convient de noter que Microsoft lui-même considère que la verbosité et le choix des mots actuels du bot Bing sont des erreurs qui seront corrigées avec plus de commentaires et d'ajustements, plutôt qu'une indication qu'il a créé une nouvelle forme d'intelligence.

"Depuis que nous avons rendu le nouveau Bing disponible en avant-première limitée pour les tests, nous avons constaté un engagement considérable dans tous les domaines de l'expérience, y compris la facilité d'utilisation et l'accessibilité de la fonctionnalité de chat. Les commentaires sur les réponses alimentées par l'IA générées par le nouveau Bing ont été extrêmement positifs avec plus de 70% des testeurs de prévisualisation donnant à Bing un "pouce en l'air" », a déclaré un porte-parole de Microsoft à Motherboard. "Nous avons également reçu de bons commentaires sur les points à améliorer et continuer à appliquer ces apprentissages aux modèles pour affiner l'expérience. Nous sommes reconnaissants pour tous les commentaires et partagerons des mises à jour régulières sur les changements et les progrès que nous réalisons.

Il convient également de prendre du recul par rapport au battage médiatique et à la véritable surprise face au caractère parfois convaincant du modèle pour évaluer ce qui se passe réellement ici et ce qui est en jeu. Il est sans doute même dangereux de confondre les suppositions statistiques du chatbot avec la sensibilité, car cela pourrait entraîner des dommages potentiels pour les utilisateurs qui font confiance au bot. Nous en avons déjà vu des aperçus : après que les utilisateurs d'un chatbot compagnon d'IA appelé Replika ont remarqué qu'il avait cessé de répondre aux avances sexuelles en nature, [la panique qui en a résulté](https://www.vice.com/en/article/ y3py9j/ai-companion-replika-erotic-roleplay-updates) a incité les modérateurs de son subreddit à publier des ressources sur la prévention du suicide.

En fin de compte, parler à un objet inanimé - ce qu'est effectivement un chatbot, étant constitué de terres rares formées dans des arrangements spécifiques appelés puces informatiques - en révélera toujours plus sur nous en tant qu'humains qu'autre chose.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd