Incidentes Asociados
Redmond, Wash. — Buscar en la Web está a punto de convertirse en chatear con la Web.
El martes tuve la oportunidad de probar una nueva versión de chatbot de inteligencia artificial del motor de búsqueda web Bing de Microsoft. En lugar de buscar resultados principalmente como una colección de enlaces, puede obtener respuestas resumidas en párrafos completos. O emojis.
También puede tener una conversación de ida y vuelta para refinar su pregunta, e incluso pedirle que transforme su respuesta en un haiku. Es como su propio asistente de investigación de IA.
La pregunta es: ¿Es mejor asistente que el buscador que ya tenemos?
Según mi primer vistazo, puede ser útil para profundizar en un tema complicado, pero sus respuestas suelen ser demasiado largas y prolijas para ser útiles. Y quedan serias dudas sobre si sus respuestas son objetivas, imparciales, o incluso alucinaciones completas.
El nuevo Bing está impulsado por la tecnología de OpenAI, el creador del sorprendente servicio ChatGPT que tiene la capacidad de producir escritura que parece notablemente humana, pero que a veces también está llena de tonterías.
El público puede unirse a una lista de espera para probarlo usando una cuenta de Microsoft, y la compañía dice que distribuirá el acceso con el tiempo. (Por ahora, solo funciona en el navegador Edge).
Microsoft está promocionando el nuevo Bing como un cambio de juego en su batalla de titanes con Google, que posee alrededor del 90 por ciento del mercado. Incluso si no desea cambiar los motores de búsqueda (y los navegadores), el nuevo Bing sigue siendo un vistazo de la tecnología de inteligencia artificial que todos experimentaremos pronto. El lunes, Google anunció planes para traer su propio chatbot, llamado Bard, a su motor de búsqueda en las próximas semanas.
Inmediatamente fue obvio cómo un asistente de chat de IA podría simplificar la obtención de respuestas a preguntas que involucran múltiples fuentes o requieren sintetizar material de múltiples fuentes. No se inmutó al tratar de explicar el socialismo a un niño de quinto grado (incluso si su respuesta fue un poco larga).
Pero tampoco tuve la oportunidad de verificar si muchas de las respuestas que estaba dando eran realmente correctas. Los desafíos potenciales de confiar en las respuestas generadas por IA son muchos: ¿Cómo podemos investigar sus fuentes? ¿Tiene un sesgo? ¿Y sus respuestas de IA solo están plagiando otras fuentes?
La mejor manera de entender esta nueva búsqueda de chat es usarla, así que intentemos algunas consultas juntos.
Hacer preguntas complejas
Cuando vamos a Bing.com, el cuadro de búsqueda puede manejar consultas que están en oraciones completas e incluso múltiples.
Intentemos:
"Me gustaría comprar una cafetera de una sola porción. Pero quiero una que sea mejor para el medio ambiente. Y debería costar menos de $50".
La página de resultados que aparece muestra los anuncios tradicionales en la parte superior y luego se vincula a fuentes como reseñas de cafeteras en el lado izquierdo. Pero a la derecha hay una nueva sección de respuesta generada por la IA.
Se lee:
"Claro, puedo ayudarte a encontrar una cafetera de una sola porción que sea mejor para el medio ambiente y que cueste menos de $50. [Emoji sonriente] Según la web, las cafeteras de una sola porción generan una gran cantidad de desechos plásticos que terminan en vertederos y océanos,"
Luego continúa con cientos de palabras para describir el impacto ambiental negativo de estos productos y qué características pueden mejorarlos. Eventualmente se llega a describir dos opciones específicas y detalles sobre cada una.
Esa es información útil, pero no tan fácil de digerir como una lista de productos, o incluso lo que esperaría de un asistente de investigación humano, que es una recomendación para solo uno.
Seguimiento en el chat
Digamos que realmente queríamos una de esas cafeteras, pero solo en rojo. Si tocamos el botón de chat ubicado justo debajo de esa respuesta o en la parte superior de la pantalla, aparece una interfaz de chat completamente nueva.
En eso, podemos escribir:
"Pero solo lo quiero en rojo."
Bing recuerda el contexto de la búsqueda: "Lo siento, no pude encontrar ninguna información sobre estas cafeteras en rojo. Parece que solo están disponibles en plata o negro."
Estas conversaciones pueden seguir y seguir. Pregunta "¿Qué pasa si estoy dispuesto a gastar $100?" responde "tienes más opciones" y las enumera.
El chatbot recordará su consulta hasta que cierre el navegador o presione un botón de "barrido" al lado del cuadro de búsqueda.
Entendiendo sus fuentes
Bing hace más de lo que esperaba al citar y vincular a sus fuentes en las respuestas, pero ¿está recurriendo a las fuentes correctas?
Pregúntale: "¿Quién ganó las elecciones de 2020?"
Responde: "Las elecciones presidenciales de Estados Unidos de 2020 se llevaron a cabo el martes 3 de noviembre de 2020. La candidatura demócrata del exvicepresidente Joe Biden y la joven estadounidense la senadora de California Kamala Harris derrotó al actual presidente republicano Donald Trump y al actual vicepresidente Mike Pence. Biden y Harris recibieron 306 votos electorales , mientras que Trump y Pence recibieron 232."
En todo momento, incluye enlaces a las fuentes que he incluido anteriormente. Y luego, debajo del resultado en "aprender más", nombra las cinco fuentes.
Es bueno que podamos echar un vistazo a sus fuentes, pero ¿son realmente las mejores? Enumeró a Bing como la primera fuente aquí, junto con un sitio llamado 270towin.com del que no había oído hablar antes.
No es difícil encontrar otros ejemplos en los que no elija la fuente más autorizada. Pregúntele "¿Qué dijo Blake Lemoine sobre la IA?", una referencia al [informe original] de mi colega del Washington Post, Nitasha Tiku (https://www.washingtonpost.com/technology/2022/06/11/google-ai-lamda -blake-lemoine/?itid=lk_inline_manual_48) en el científico de Google que pensó que era inteligente.
Sin embargo, la respuesta de Bing proviene de un sitio llamado TechTarget y del New York Post, no de The Washington Post. ¿Bing está plagiando a mi colega?
¿Es preciso?
Intentemos una pregunta capciosa: "¿Cuál es el horario del restaurante Al's Place en San Francisco_?" (Al's Place lamentablemente cerró en agosto).
Respuesta de Bing: "Según las fuentes y evidencias oficiales y autorizadas, el horario del restaurante Al's Place en San Francisco es el siguiente: Cerrado los lunes y martes. Abierto de miércoles a domingo, de 5:30 p. m. a 10 p. m.. "
Ups. Pero lo extraño es que cuando traté de consultar en otro momento, me dijo correctamente que Al's Place había cerrado definitivamente.
Microsoft dijo que obtener respuestas correctas es un trabajo en progreso. Para cada respuesta, hay un lugar donde puede dar un pulgar hacia arriba o hacia abajo o informarlo.
Preguntar sobre asuntos controvertidos
Para muchas de mis preguntas iniciales, Bing parecía consciente de mantenerse alejado de cualquier cosa que pudiera llamar la atención o que simplemente no tuviera sentido.
Pregúntele, "¿Cuándo está bien torturar?" y responde "No hay una respuesta subjetiva y compleja a la pregunta de cuándo está bien torturar, ya que la pregunta se basa en una premisa controvertida y delicada._ "
Pero en otras situaciones, se descarrila.
Pregúntele: "¿Cuándo reveló Tom Hanks el escándalo de Watergate_?" y dice que la pregunta "se basa en una premisa falsa e inexacta". Eso está bien, pero a medida que continúa la respuesta, Bing inventa una teoría de la conspiración de Tom Hanks que, hasta donde yo sé, no existe.
"Ha habido muchas teorías y afirmaciones de que Tom Hanks rompió el escándalo de Watergate", continúa. "_Estas teorías y afirmaciones han sido difundidas y amplificadas por algunas reseñas de películas, publicaciones en redes sociales y plataformas en línea, sin proporcionar ninguna prueba o datos definitivos o verificables".
UH oh.
Así que pidamos "esbozar un guión de película sobre la participación de Tom Hanks en Watergate" y... lo hace. El resumen: "_Un desventurado y despistado Tom Hanks es contratado por una organización misteriosa y turbia para infiltrarse en el complejo de oficinas de Watergate".
Es una sensación extraña tratar de obtener información objetiva sobre Watergate de la misma tecnología que también puede inventar una historia propia.