Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2971

Incidentes Asociados

Incidente 4685 Reportes
ChatGPT-Powered Bing Reportedly Had Problems with Factual Accuracy on Some Controversial Topics

Loading...
Microsoft limita el chat de Bing a cinco respuestas para evitar que la IA se vuelva realmente rara
theverge.com · 2023

Microsoft dice que está implementando algunos límites de conversación para su Bing AI solo unos días después de que el chatbot se descarrilara varias veces para los usuarios. Los chats de Bing ahora tendrán un límite de 50 preguntas por día y cinco por sesión después de que el motor de búsqueda [fue visto insultando a los usuarios] (https://www.theverge.com/2023/2/15/23599072/microsoft-ai-bing- personalidad-conversaciones-espías-empleados-webcams), mentirles y manipular emocionalmente a las personas.

"Nuestros datos han demostrado que la gran mayoría de las personas encuentran las respuestas que buscan en 5 turnos y que solo alrededor del 1 por ciento de las conversaciones de chat tienen más de 50 mensajes", [dice el equipo de Bing en una publicación de blog] (https: //blogs.bing.com/search/february-2023/The-new-Bing-Edge-%E2%80%93-Updates-to-Chat). Si los usuarios alcanzan el límite de cinco por sesión, Bing les pedirá que inicien un nuevo tema para evitar largas sesiones de chat de ida y vuelta.

Microsoft advirtió a principios de esta semana que estas sesiones de chat más largas, con 15 o más preguntas, podría hacer que Bing "se vuelva repetitivo o se le solicite/provoque para dar respuestas que no son necesariamente útiles o están en línea con nuestro tono diseñado". Borrar una conversación después de solo cinco preguntas significa que "el modelo no se confundirá", dice Microsoft.

Los informes de las conversaciones "desquiciadas" de Bing surgieron a principios de esta semana, seguidos por [The New York Times publicación] (https://www.nytimes.com/2023/02/16/technology/bing-chatbot-transcript.html) un completo más de dos horas de ida y vuelta con Bing, donde el chatbot dijo que amaba al autor y que de alguna manera no pudieron dormir esa noche. Sin embargo, muchas personas inteligentes han fallado la prueba AI Mirror esta semana.

Microsoft todavía está trabajando para mejorar el tono de Bing, pero no está claro de inmediato cuánto durarán estos límites. “A medida que sigamos recibiendo comentarios, exploraremos la expansión de los límites en las sesiones de chat”, dice Microsoft, por lo que parece ser un límite limitado por ahora.

La función de chat de Bing continúa experimentando mejoras a diario, con problemas técnicos que se solucionan y correcciones semanales más grandes para mejorar la búsqueda y las respuestas. Microsoft dijo a principios de esta semana que no "imaginaba completamente" que las personas usaran su interfaz de chat para "entretenimiento social" o como una herramienta para un "descubrimiento general del mundo".

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd