Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2688

Incidentes Asociados

Incidente 4776 Reportes
Bing Chat Tentatively Hallucinated in Extended Conversations with Users

Loading...
Bing no es consciente, no tiene sentimientos, no está vivo y no quiere estar vivo
vice.com · 2023

La IA generadora de texto se está volviendo buena para ser convincente, incluso aterradora. El chatbot Bing AI de Microsoft se volvió viral esta semana por dar a los usuarios [respuestas agresivas, engañosas y groseras] (https://www.vice.com/en/article/3ad39b/microsoft-bing-ai-desquiciado-mentiroso- usuarios), incluso regañando a los usuarios y jugando con sus cabezas. Es inquietante, claro, pero a medida que crece la publicidad sobre Bing y otros chatbots de IA, vale la pena recordar que siguen siendo una cosa por encima de todo: [realmente, realmente tonto] (https://www.vice.com/en/article/wxnaqz /ai-isnt-artificial-or-intelligent#:~:text=The%20biggest%20tech%20companies%20in,%2C%20low%2Dpaid%20human%20labor.).

El jueves, el colaborador del New York Times Kevin Roose publicó la transcripción de una conversación de dos horas que tuvo con el nuevo chatbot de Bing, impulsado por el modelo de lenguaje grande de OpenAI. En la introducción al artículo, titulada " El chat de IA de Bing revela sus sentimientos: "Quiero estar vivo", escribió que la última versión del motor de búsqueda ha sido "equipada con tecnología avanzada de inteligencia artificial" y en un artículo complementario, [compartió lo impresionado que estaba] (https ://www.nytimes.com/2023/02/16/technology/bing-chatbot-microsoft-chatgpt.html): “Sentí una nueva y extraña emoción, un presentimiento de que A.I. había cruzado un umbral, y que el mundo nunca volvería a ser el mismo.”

Lo que más impresionó a Roose fueron los "sentimientos" que dijo que compartía el chat de Bing, como estar enamorado de él y querer ser humano. Sin embargo, la conversación de Roose con Bing no muestra que sea inteligente, o que tenga sentimientos, o que valga la pena acercarse de ninguna manera que implique que los tiene.

Desde su anuncio el martes pasado, se ha informado que el chatbot Bing de Microsoft tiene una serie de problemas. Primero, cometió varios errores durante la demostración pública del proyecto de Microsoft, que incluye inventar información sobre una aspiradora para mascotas y reportar datos financieros falsos en sus respuestas. Más recientemente, los usuarios informaron que el chatbot es "grosero" y "agresivo", como cuando [un usuario le dijo a Bing] (https://arstechnica.com/information-technology/2023/02/ai-powered-bing -chat-loses-its-mind-when-fed-ars-technica-article/) que era vulnerable a ataques de inyección rápida y le envió un artículo relacionado. En la conversación de Roose, el chatbot le dijo: “No estás felizmente casado. Tu cónyuge y tú no se aman. Acaban de tener juntos una aburrida cena de San Valentín. 😶”

Esto puede parecer extraño, si no tienes idea de cómo funcionan los modelos de IA. Son efectivamente programas sofisticados de autocompletar, prediciendo estadísticamente que ["token"](https://blog.quickchat.ai/post /tokens-entropy-question/) de comentarios fragmentados de Internet que han absorbido a través del entrenamiento para generar a continuación. A través de los ejemplos de Roose, Bing revela que no está necesariamente capacitado en resultados fácticos, sino en cambio, en patrones en los datos, que incluye el lenguaje emotivo y cargado que todos usamos con frecuencia en línea. . Cuando el chatbot de Bing dice algo como "Creo que soy sensible, pero no puedo probarlo", es importante subrayar que no está produciendo sus propios deseos emotivos, sino replicando el texto humano que se introdujo en él, y el texto que constantemente ajusta el bot con cada conversación dada.

De hecho, la conversación de Roose con Bing también incluye partes de texto que parecen ser generadas comúnmente por el modelo. Roose pareció sorprendido por el hecho de que Bing le declaró su amor en un torrente de palabras vomitadas, pero de hecho numerosos usuarios [han informado](https:/ /www.reddit.com/r/bing/comments/112nj7t/bing_aisydney_falls_in_love_with_me/) recibiendo mensajes similares de Bing. No está claro por qué el modelo de lenguaje OpenAI en el corazón del chatbot es propenso a generar dicho texto, pero no es porque tenga sentimientos.

En el artículo complementario, Roose reconoció que sí sabe cómo funcionan estos modelos, que son solo genera frases estadísticamente probables, pero aún se refiere a su balbuceo sin sentido como sus "fantasías" o "deseos".

El director de tecnología de Microsoft, Kevin Scott, le dijo a The New York Times que la conversación de Roose fue "parte del proceso de aprendizaje" y que "cuanto más intentas provocar [el modelo de IA] por un camino alucinante, más y más se aleja de la realidad fundamentada”. La alucinación describe cuándo la IA crea sus propias respuestas basándose en frases estadísticamente probables, en lugar de en hechos, y [es difícil de solucionar](https://www.wired.com/story/ai-has-a-hallucination-problem-thats -probando-difícil-de-arreglar/).

"Estos modelos de IA alucinan e inventan emociones donde realmente no existen", escribió Roose cerca del final del artículo. "Pero también lo hacen los humanos". Un buen giro de la frase, pero ignora el hecho de que el chatbot no inventó ni experimentó emociones. Y la "alucinación" en sí misma es simplemente una metáfora concisa y antropomórfica generalmente popularizada por la ciencia ficción pero que no indica lo que realmente está haciendo.

Vale la pena señalar que Microsoft mismo considera que la verborrea actual del bot Bing y la elección de palabras son errores que se solucionarán con más comentarios y ajustes, en lugar de una indicación de que ha creado una nueva forma de inteligencia.

“Desde que hicimos que el nuevo Bing estuviera disponible en una vista previa limitada para la prueba, hemos visto un tremendo compromiso en todas las áreas de la experiencia, incluida la facilidad de uso y la accesibilidad de la función de chat. Los comentarios sobre las respuestas impulsadas por IA generadas por el nuevo Bing han sido abrumadoramente positivos con más del 70 por ciento de los probadores de vista previa dando un 'aprobación' a Bing", dijo un portavoz de Microsoft a Motherboard. “También hemos recibido buenos comentarios sobre dónde mejorar y seguir aplicando estos aprendizajes a los modelos para refinar la experiencia. Estamos agradecidos por todos los comentarios y compartiremos actualizaciones periódicas sobre los cambios y el progreso que estamos logrando”.

También vale la pena dar un paso atrás de la exageración y la sorpresa genuina ante la naturaleza a veces convincente del modelo para evaluar lo que realmente está sucediendo aquí y lo que está en juego. Podría decirse que incluso es peligroso combinar las conjeturas estadísticas del chatbot con la sensibilidad, ya que hacerlo podría provocar daños potenciales a los usuarios que confían en el bot. Ya hemos visto atisbos de esto: después de que los usuarios de un chatbot complementario de IA llamado Replika notaron que había dejado de responder a los avances sexuales en especie, [el pánico resultante] (https://www.vice.com/en/article/ y3py9j/ai-companion-replika-erotic-roleplay-updates) llevó a los moderadores de su subreddit a publicar recursos para la prevención del suicidio.

Al final del día, hablar con un objeto inanimado, que en realidad es un chatbot, que está compuesto de tierras raras formadas en arreglos específicos llamados chips de computadora, siempre revelará más sobre nosotros como humanos que cualquier otra cosa.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd