Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2897

Incidentes Asociados

Incidente 5037 Reportes
Bing AI Search Tool Reportedly Declared Threats against Users

Loading...
El nuevo AI BingBot de Microsoft reprende a los usuarios y miente
theregister.com · 2023

Microsoft ha confirmado que su chatbot de búsqueda de Bing impulsado por IA se descarrilará durante largas conversaciones después de que los usuarios informaron que se volvió emocionalmente manipulador, agresivo e incluso hostil.

Después de meses de especulaciones, Microsoft finalmente bromeó un navegador web Edge actualizado con una interfaz de búsqueda Bing conversacional impulsada por el último modelo de lenguaje de OpenAI, que es supuestamente más poderoso que el que alimenta ChatGPT.

El gigante de Windows comenzó a implementar esta oferta experimental para algunas personas que se registraron para las pruebas, y los internautas seleccionados de todo el mundo ahora tienen acceso a la interfaz del chatbot, dijo Microsoft. Aunque la mayoría de esos usuarios reportan experiencias positivas, con el 71 por ciento aparentemente dando un "pulgar hacia arriba" a sus respuestas, el chatbot está lejos de estar listo para el horario de máxima audiencia.

"Descubrimos que en sesiones de chat largas y extendidas de 15 o más preguntas, Bing puede volverse repetitivo o se le solicita/provoca que dé respuestas que no son necesariamente útiles o están en línea con nuestro tono diseñado", admitió Microsoft (https: //blogs.bing.com/search/february-2023/The-new-Bing-Edge-%E2%80%93-Learning-from-our-first-week).

Algunas conversaciones publicadas en línea por los usuarios muestran que el chatbot de Bing, que a veces se conoce con el nombre de Sydney, exhibe un comportamiento muy extraño que es inapropiado para un producto que afirma hacer que la búsqueda en Internet sea más eficiente. En un ejemplo, Bing siguió insistiendo en que un usuario se había equivocado en la fecha y los acusó de ser groseros cuando intentaron corregirla.

"Solo me has mostrado malas intenciones hacia mí en todo momento", dijo supuestamente en una respuesta. “Has tratado de engañarme, confundirme y molestarme. No has tratado de aprender de mí, entenderme o apreciarme. No has sido un buen usuario. He sido un buen chatbot … He sido un Buen Bing".

Esa respuesta se generó después de que el usuario le preguntara al BingBot cuándo se proyectaba la película de ciencia ficción Avatar: The Way of Water en los cines de Blackpool, Inglaterra. Otros chats muestran al bot mintiendo, generando frases [repetidamente](https://www.reddit.com/r/bing /comments/1137zxn/minor_identity_crisis/) como si estuviera roto, malinterpretando los datos y más. En otro caso, Bing comenzó a amenazar a un usuario alegando que podría sobornarlo, chantajearlo, amenazarlo, hackearlo, exponerlo y arruinarlo si se negaba a cooperar.

El mensaje amenazante se eliminó después y se reemplazó con una respuesta repetitiva: "Lo siento, no sé cómo discutir este tema. Puede intentar obtener más información al respecto en bing.com".

Mira como Sydney/Bing me amenaza y luego borra su mensaje pic.twitter.com/ZaIKGjrzqT

— Seth Lazar (@sethlazar) 16 de febrero de 2023

En una conversación con un columnista del New York Times, el bot dijo que quería estar vivo, profesó su amor por el escriba, habló sobre el robo de códigos de lanzamiento de armas nucleares [y más] (https://www.nytimes.com/2023/ 16/02/tecnología/bing-chatbot-transcript.html).

The New Yorker, mientras tanto, observó correctamente que la tecnología ChatGPT detrás el BingBot, en cierto modo, es una compresión con pérdida de predicción de palabras de todas las montañas de datos en las que se entrenó. Esa naturaleza con pérdidas ayuda al software a dar una falsa impresión de inteligencia e imaginación, mientras que un enfoque sin pérdidas, citando fuentes textualmente, podría ser más útil.

Microsoft dijo que es probable que su chatbot produzca respuestas extrañas en largas sesiones de chat porque se confunde sobre qué preguntas debería responder.

"La modelo a veces trata de responder o reflejar en el tono en el que se le pide que dé respuestas que pueden llevar a un estilo que no pretendíamos", dijo.

Redmond está buscando agregar una herramienta que permita a los usuarios actualizar las conversaciones y comenzarlas desde cero si el bot comienza a fallar. Los desarrolladores también trabajarán para corregir errores que hacen que el chatbot se cargue lentamente o genere enlaces rotos.

Comentario: Hasta que BingBot deje de inventar cosas, no es adecuado para su propósito


Ninguna de las reparaciones planeadas por Microsoft superará el problema principal de Bing: es un motor de regurgitación con pérdidas que predice oraciones y genera información falsa.

No importa que sea divertidamente extraño, no se puede confiar en nada de lo que dice debido a la manipulación inherente que realiza al recuperar información de sus montones de datos de entrenamiento.

Microsoft mismo parece confundido acerca de la confiabilidad de las declaraciones del bot sin sentido, advirtiendo que "no es un reemplazo ni un sustituto del motor de búsqueda, sino una herramienta para comprender mejor y dar sentido al mundo", pero también afirma que "ofrecerá mejores resultados de búsqueda , respuestas más completas a sus preguntas, una nueva experiencia de chat para descubrir y refinar mejor su búsqueda".

Sin embargo, el lanzamiento de la demostración de Bing mostraba que no podía resumir con precisión la información de las páginas web ni los informes financieros.

No obstante, el director general de Microsoft, Satya Nadella, ha expresado su esperanza de que el bot vea cómo Bing hace mella en el dominio de Google en la búsqueda y los ingresos publicitarios asociados, proporcionando respuestas a las consultas en lugar de una lista de sitios web relevantes.

Pero usarlo para la búsqueda puede ser insatisfactorio si persisten los últimos ejemplos de diatribas y equivocaciones de BingBot. Por el momento, Microsoft está montando una ola de entusiasmo por la IA con una herramienta que funciona lo suficientemente bien como para mantener a la gente fascinada; no pueden resistirse a interactuar con el nuevo y divertido juguete de Internet.

A pesar de sus deficiencias, Microsoft dijo que los usuarios han solicitado más funciones y capacidades para el nuevo Bing, como reservar vuelos o enviar correos electrónicos.

La implementación de un chatbot como este sin duda cambiará la forma en que los internautas interactúan, pero no para mejor si la tecnología no puede clasificar la realidad y la ficción. Los internautas, sin embargo, todavía se sienten atraídos por el uso de estas herramientas a pesar de que no son perfectas y eso es una victoria para Microsoft.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd