Registro de citas para el Incidente 477

Respondido
Description: Early testers reported Bing Chat, in extended conversations with users, having tendencies to make up facts and emulate emotions through an unintended persona.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial
Presunto: un sistema de IA desarrollado por OpenAI e implementado por , perjudicó a Microsoft.

Estadísticas de incidentes

ID
477
Cantidad de informes
5
Fecha del Incidente
2023-02-14
Editores
Khoa Lam
Una conversación con el chatbot de Bing me dejó profundamente inquieto
nytimes.com · 2023

La semana pasada, después de probar el nuevo motor de búsqueda Bing impulsado por IA motor de búsqueda de Microsoft, Escribí que, para mi sorpresa, había reemplazado a Google como mi motor de búsqueda favorito.

Pero una semana después, camb…

Bing no es consciente, no tiene sentimientos, no está vivo y no quiere estar vivo
vice.com · 2023

La IA generadora de texto se está volviendo buena para ser convincente, incluso aterradora. El chatbot Bing AI de Microsoft se volvió viral esta semana por dar a los usuarios [respuestas agresivas, engañosas y groseras] (https://www.vice.co…

El nuevo Bing le dijo a nuestro reportero que "puede sentir o pensar cosas".
washingtonpost.com · 2023

La semana pasada, Microsoft lanzó un Bing "reinventado" motor de búsqueda que puede responder preguntas complejas y conversar directamente con los usuarios. Pero en lugar de un ayudante alegre, algunos evaluadores se han encontrado con una …

El nuevo Bing & Edge: actualizaciones de Chat
blogs.bing.com · 2023
Respuesta post-incidente de Microsoft

Hola primeros adelantos,

Queremos compartir una actualización rápida sobre un cambio notable que estamos realizando en el nuevo Bing en función de sus comentarios.

Como mencionamos recientemente, muy largas sesiones de chat pueden confundir…

Microsoft limita los chats de Bing AI a 5 respuestas para mantener las conversaciones normales
cnet.com · 2023

Microsoft está limitando la cantidad de personas que pueden conversar con su Bing [AI chatbot] (https://www.cnet.com/tech/computing/why-were-all-obsessed-with-the-mind-blowing-chatgpt-ai- chatbot/), luego de la cobertura mediática del bot q…

Variantes

Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.
en revisión
Fecha del Incidente:
2023-02-16