Journal des citations pour l'incident 477

Répondu
Description: Early testers reported Bing Chat, in extended conversations with users, having tendencies to make up facts and emulate emotions through an unintended persona.

Outils

Nouveau rapportNouveau rapportNouvelle RéponseNouvelle RéponseDécouvrirDécouvrirVoir l'historiqueVoir l'historique
Présumé : un système d'IA développé par OpenAI et mis en œuvre par , endommagé Microsoft.

Statistiques d'incidents

ID
477
Nombre de rapports
5
Date de l'incident
2023-02-14
Editeurs
Khoa Lam
Une conversation avec le chatbot de Bing m'a profondément déstabilisé
nytimes.com · 2023

La semaine dernière, après avoir testé le nouveau moteur de recherche Bing alimenté par l'IA de Microsoft, J'ai écrit qu'à ma grande surprise, il avait remplacé Google comme moteur de recherche préféré.

Mais une semaine plus tard, j'ai chan…

Bing n'est pas sensible, n'a pas de sentiments, n'est pas vivant et ne veut pas être vivant
vice.com · 2023

L'IA génératrice de texte devient de plus en plus convaincante, voire effrayante. Le chatbot Bing AI de Microsoft est devenu viral cette semaine pour avoir donné aux utilisateurs [des réponses agressives, trompeuses et grossières](https://w…

Le nouveau Bing a déclaré à notre journaliste qu'il "peut ressentir ou penser des choses"
washingtonpost.com · 2023

La semaine dernière, Microsoft a lancé un moteur de recherche Bing "réimaginé" qui peut répondre à des questions complexes et dialoguer directement avec les utilisateurs. Mais au lieu d'un aide-déchiqueteuse, certains testeurs ont rencontré…

Le nouveau Bing & Edge - Mises à jour du chat
blogs.bing.com · 2023
Réponse post-incident de Microsoft

Bonjour les premiers aperçus,

Nous souhaitons partager une mise à jour rapide sur un changement notable que nous apportons au nouveau Bing en fonction de vos commentaires.

Comme nous l'avons mentionné récemment, très de longues sessions de …

Microsoft limite les conversations Bing AI à 5 réponses pour maintenir les conversations normales
cnet.com · 2023

Microsoft limite le nombre de personnes pouvant converser avec son [IA chatbot] Bing (https://www.cnet.com/tech/computing/why-were-all-obsessed-with-the-mind-blowing-chatgpt-ai- chatbot/), suite à la médiatisation du bot qui déraille lors d…

Variantes

Une "Variante" est un incident qui partage les mêmes facteurs de causalité, produit des dommages similaires et implique les mêmes systèmes intelligents qu'un incident d'IA connu. Plutôt que d'indexer les variantes comme des incidents entièrement distincts, nous listons les variations d'incidents sous le premier incident similaire soumis à la base de données. Contrairement aux autres types de soumission à la base de données des incidents, les variantes ne sont pas tenues d'avoir des rapports en preuve externes à la base de données des incidents. En savoir plus sur le document de recherche.
non révisé
Date de l'incident:
2023-02-16