Journal des citations pour l'incident 468

Description: Microsoft's ChatGPT-powered Bing search engine reportedly ran into factual accuracy problems when prompted about controversial matters, such as inventing plot of a non-existent movie or creating conspiracy theories.

Outils

Nouveau rapportNouveau rapportNouvelle RéponseNouvelle RéponseDécouvrirDécouvrirVoir l'historiqueVoir l'historique
Présumé : un système d'IA développé par Microsoft and OpenAI et mis en œuvre par Microsoft, endommagé Bing users.

Statistiques d'incidents

ID
468
Nombre de rapports
5
Date de l'incident
2023-02-07
Editeurs
Khoa Lam
En essayant le nouveau moteur de recherche de chatbot AI de Microsoft, certaines réponses sont euh-oh
washingtonpost.com · 2023

Redmond, Washington — La recherche sur le Web est sur le point de se transformer en conversation avec le Web.

Mardi, j'ai eu l'occasion d'essayer une nouvelle version du chatbot d'intelligence artificielle du moteur de recherche Web Bing de…

La recherche alimentée par ChatGPT de Bing a un problème de désinformation
vice.com · 2023

Mardi dernier, Microsoft a annoncé que son moteur de recherche Bing serait propulsé par l'IA en partenariat avec OpenAI , la société mère du populaire chatbot ChatGPT. Cependant, les gens ont rapidement découvert que la recherche basée sur …

Les utilisateurs rapportent que Bing AI «déséquilibré» de Microsoft ment et les réprimande
vice.com · 2023

** Le bot Bing a déclaré qu'il était "déçu et frustré" chez un utilisateur, selon des captures d'écran. "Vous avez gaspillé mon temps et mes ressources", a-t-il déclaré. **

Le nouveau chatbot alimenté par l'IA de Microsoft pour son moteur d…

Bing de Microsoft est un menteur manipulateur émotionnel, et les gens adorent ça
theverge.com · 2023

Le chatbot Bing de Microsoft a été déchaîné sur le monde, et les gens découvrent ce cela signifie tester en version bêta un outil d'IA imprévisible.

Plus précisément, ils découvrent que la personnalité de l'IA de Bing n'est pas aussi équili…

Microsoft limite le chat Bing à cinq réponses pour empêcher l'IA de devenir vraiment bizarre
theverge.com · 2023

Microsoft dit qu'il met en place certaines limites de conversation sur son IA Bing quelques jours seulement après que le chatbot a déraillé plusieurs fois pour les utilisateurs. Les chats Bing seront désormais limités à 50 questions par jou…

Variantes

Une "Variante" est un incident qui partage les mêmes facteurs de causalité, produit des dommages similaires et implique les mêmes systèmes intelligents qu'un incident d'IA connu. Plutôt que d'indexer les variantes comme des incidents entièrement distincts, nous listons les variations d'incidents sous le premier incident similaire soumis à la base de données. Contrairement aux autres types de soumission à la base de données des incidents, les variantes ne sont pas tenues d'avoir des rapports en preuve externes à la base de données des incidents. En savoir plus sur le document de recherche.