Registro de citas para el Incidente 468

Description: Microsoft's ChatGPT-powered Bing search engine reportedly ran into factual accuracy problems when prompted about controversial matters, such as inventing plot of a non-existent movie or creating conspiracy theories.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial
Presunto: un sistema de IA desarrollado por Microsoft y OpenAI e implementado por Microsoft, perjudicó a Bing users.

Estadísticas de incidentes

ID
468
Cantidad de informes
5
Fecha del Incidente
2023-02-07
Editores
Khoa Lam
Al probar el nuevo motor de búsqueda de bots con IA de Microsoft, algunas respuestas son oh-oh
washingtonpost.com · 2023

Redmond, Wash. — Buscar en la Web está a punto de convertirse en chatear con la Web.

El martes tuve la oportunidad de probar una nueva versión de chatbot de inteligencia artificial del motor de búsqueda web Bing de Microsoft. En lugar de bu…

La búsqueda impulsada por ChatGPT de Bing tiene un problema de desinformación
vice.com · 2023

El martes pasado, Microsoft anunció que su [motor de búsqueda Bing] (https://www.vice.com/en/article/jgpypg/bing-chat-google-conversational-ai-search) estaría impulsado por IA en asociación con OpenAI , la empresa matriz del popular chatbot…

Los usuarios informan que la IA de Bing 'desquiciada' de Microsoft está mintiendo y reprendiéndolos
vice.com · 2023

** El bot de Bing dijo que estaba "decepcionado y frustrado" con un usuario, según las capturas de pantalla. "Has desperdiciado mi tiempo y mis recursos", decía. **

El nuevo chatbot impulsado por IA de Microsoft para su [motor de búsqueda B…

Bing de Microsoft es un mentiroso emocionalmente manipulador, y a la gente le encanta
theverge.com · 2023

El chatbot Bing de Microsoft ha sido desatado en el mundo, y la gente está descubriendo qué significa hacer una prueba beta de una herramienta de IA impredecible.

Específicamente, están descubriendo que la personalidad de IA de Bing no es t…

Microsoft limita el chat de Bing a cinco respuestas para evitar que la IA se vuelva realmente rara
theverge.com · 2023

Microsoft dice que está implementando algunos límites de conversación para su Bing AI solo unos días después de que el chatbot se descarrilara varias veces para los usuarios. Los chats de Bing ahora tendrán un límite de 50 preguntas por día…

Variantes

Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.