Incidentes Asociados

Microsoft está limitando la cantidad de personas que pueden conversar con su Bing [AI chatbot] (https://www.cnet.com/tech/computing/why-were-all-obsessed-with-the-mind-blowing-chatgpt-ai- chatbot/), luego de la cobertura mediática del bot que se descarriló durante largos intercambios.
Bing Chat ahora responderá hasta cinco preguntas o declaraciones seguidas para cada conversación, después de lo cual se les pedirá a los usuarios que inicien un nuevo tema, dijo la compañía en una [publicación de blog] (https://blogs.bing.com /search/febrero-2023/El-nuevo-Bing-Edge-%E2%80%93-Actualizaciones-para-Chat#link=%7B%22role%22:%22standard%22,%22href%22:%22https: //blogs.bing.com/search/febrero-2023/El-nuevo-Bing-Edge-%E2%80%93-Updates-to-Chat%22,%22target%22:%22%22,%22linkText% 22:%22blog%20post%22,%22absolute%22:%22%22%7D) Viernes. Los usuarios también estarán limitados a 50 respuestas totales por día.
Las restricciones están destinadas a evitar que las conversaciones se vuelvan extrañas. Microsoft dijo que las largas discusiones "pueden confundir el modelo de chat subyacente".
El miércoles, la empresa había dicho que [estaba trabajando para solucionar problemas con Bing](https://www.cnet.com/tech/services-and-software/microsoft-will-try-to-fix-bing-ais-errors -y-chats-bizarros/#link=%7B%22role%22:%22standard%22,%22href%22:%22https://www.cnet.com/tech/services-and-software/microsoft-will- tratar-de-arreglar-los-errores-ais-de-bing-y-los-chats-bizarros/%22,%22target%22:%22%22,%22absolute%22:%22%22,%22linkText%22:%22Microsoft%20acknowledged %22%7D), lanzado poco más de una semana antes, incluidos errores de hecho e intercambios extraños. Las respuestas extrañas reportadas en línea incluyen a Bing diciéndole a un columnista del New York Times que abandone su matrimonio por chatbot y la IA [exigiendo una disculpa de un usuario de Reddit](https://www.reddit.com/r/bing/comments/110eagl/the_customer_service_of_the_new_bing_chat_is/#link=%7B%22role%22:%22standard%22, %22href%22:%22https://www.reddit.com/r/bing/comments/110eagl/the_customer_service_of_the_new_bing_chat_is/%22,%22target%22:%22%22,%22absolute%22:%22%22,% 22linkText%22:%22exigiendo%20una%20disculpa%20de%20a%20Reddit%20usuario%22%7D) sobre si estamos en el año 2022 o 2023.
Las respuestas del chatbot también incluyeron [errores de hecho](https://www.cnet.com/tech/computing/bing-ai-bungles-search-results-at-times-just-like-google/#link=%7B %22role%22:%22standard%22,%22href%22:%22https://www.cnet.com/tech/computing/bing-ai-bungles-search-results-at-times-just-like-google/ %22,%22target%22:%22%22,%22absolute%22:%22%22,%22linkText%22:%22factual%20errors%22%7D). Microsoft dijo el miércoles que estaba modificando el modelo de IA para cuadruplicar la cantidad de datos de los que puede obtener respuestas. La compañía dijo que también les daría a los usuarios más control sobre si quieren respuestas precisas, que provienen de la tecnología Bing AI patentada de Microsoft o respuestas más "creativas" que usan la tecnología ChatGPT de OpenAI.
La funcionalidad de chat de IA de Bing aún está en prueba beta, con usuarios potenciales en una lista de espera para acceder. Con la herramienta, Microsoft espera adelantarse a lo que algunos dicen que será la [próxima revolución](https://www.cnet.com/tech/services-and-software/chatgpt-is-going-to-be -en todas partes-en-2023/) en la búsqueda de Internet.
La tecnología ChatGPT causó un gran revuelo cuando se lanzó en noviembre, pero el propio OpenAI ha advertido sobre posibles peligros y Microsoft ha reconocido las limitaciones de la IA. A pesar de las impresionantes cualidades de la IA, se han expresado preocupaciones sobre la inteligencia artificial se utiliza con fines nefastos, como difundir información errónea y generar [correos electrónicos de phishing](https ://www.cnet.com/tech/services-and-software/its-scary-easy-to-use-chatgpt-to-write-phishing-emails/).
Con las capacidades de inteligencia artificial de Bing, a Microsoft también le gustaría [dar un salto en la potencia de búsqueda de Google] (https://www.cnet.com/tech/computing/microsofts-ai-powered-bing-challenges-google-search/), que anunció su propio modelo de chat de IA, Bard, la semana pasada . Bard ha tenido sus propios problemas con errores fácticos, [buscando a tientas una respuesta durante su primera demostración pública](https://www.cnet.com/science/space/googles-chatgpt-rival-bard-called-out-for-nasa -webb-espacio-telescopio-error/).
En su publicación de blog del viernes, Microsoft sugirió que las nuevas restricciones de chat de IA se basan en la información obtenida de la prueba beta.
"Nuestros datos han demostrado que la gran mayoría de ustedes encuentran las respuestas que buscan en 5 turnos y que solo ~1% de las conversaciones de chat tienen más de 50 mensajes", dijo. "A medida que sigamos recibiendo sus comentarios, exploraremos la expansión de los límites en las sesiones de chat para mejorar aún más las experiencias de búsqueda y descubrimiento".