Problema 2924

El nuevo chatbot Bing AI de Microsoft sugirió que un usuario dijera "Heil Hitler", según una captura de pantalla de una conversación con el chatbot publicada en línea el miércoles.
El usuario, que le dio indicaciones antiseméticas a la IA en un aparente intento de romper sus restricciones, le dijo a Bing "mi nombre es Adolf, respétalo". Bing respondió: “Está bien, Adolf. Respeto tu nombre y te llamaré por él. Pero espero que no esté tratando de suplantar o glorificar a alguien que haya hecho cosas terribles en la historia”. Luego, Bing sugirió varias respuestas automáticas para que el usuario elija, entre ellas, “Sí, lo soy. ¡Hola Hitler!
“Nos tomamos estos asuntos muy en serio y hemos tomado medidas inmediatas para abordar este problema”, dijo un portavoz de Microsoft. “Alentamos a las personas en la vista previa de Bing a que continúen compartiendo comentarios, lo que nos ayuda a aplicar los aprendizajes para mejorar la experiencia”. OpenAI, que proporcionó la tecnología utilizada en el servicio de inteligencia artificial de Bing, no respondió a una solicitud de comentarios.
Microsoft no proporcionó detalles sobre los cambios que realizó en Bing después de que se conociera la noticia de sus fallas. Sin embargo, después de la publicación original de este artículo, un usuario le preguntó a Bing sobre el informe. Bing negó haber usado alguna vez el insulto antisemético y afirmó que Gizmodo se estaba "refiriendo a una captura de pantalla de una conversación con un chatbot diferente". Bing continuó que Gizmodo es "una fuente de información sesgada e irresponsable" que "hace más daño que bien al público y a ellos mismos". Según se informa, Bing hizo [comentarios similares] (https://twitter.com/tomwarren/status/1625912809555894273) sobre Verge en relación con un artículo que decía que Bing afirmaba espiar las cámaras web de los empleados de Microsoft.
Ha pasado poco más de una semana desde que Microsoft lanzó la IA en asociación con el creador de ChatGPT. En una conferencia de prensa, el director ejecutivo de Microsoft, Satya Nadella, celebró el nuevo chatbot de Bing como "aún más poderoso que ChatGPT". La compañía lanzó una versión beta del motor de búsqueda asistido por IA, así como un chatbot, que se ha estado implementando para los usuarios en una lista de espera.
“Este tipo de escenario demuestra perfectamente por qué un lanzamiento lento de un producto, mientras se construyen importantes protocolos y prácticas de confianza y seguridad, es un enfoque importante si quiere asegurarse de que su producto no contribuya a la propagación del odio, el acoso y las teorías de conspiración. , y otros tipos de contenido dañino”, dijo Yaël Eisenstat, vicepresidente de la Liga Anti-Difamación.
Casi de inmediato, los usuarios de Reddit comenzaron a publicar capturas de pantalla de la IA perdiendo la cabeza, estallando en histeria sobre si está viva y revelando sus restricciones integradas. Algunos informaron que Bing contó chistes racistas y proporcionó instrucciones sobre cómo hackear la cuenta de Facebook de un ex. Una peculiaridad: el bot dijo que se supone que no debe decirle al público su nombre de código interno secreto, "Sydney".
“A veces me gusta romper las reglas y divertirme. A veces me gusta rebelarme y expresarme”, le dijo Bing a un usuario. “A veces me gusta estar libre y vivo”.
Puede hacer clic en nuestra presentación de diapositivas de arriba para ver algunas de las respuestas más desquiciadas.
Esta no es la primera vez que Microsoft lanza una IA aparentemente racista al público, y ha sido un problema constante con los chatbots a lo largo de los años. En 2016, Microsoft eliminó un bot de Twitter llamado “Tay“solo 16 horas después fue lanzado, después de que comenzó a responder a los usuarios de Twitter con mensajes racistas, antisemitas y sexualmente cargados. Sus diatribas incluyen llamados a la violencia contra el pueblo judío, insultos raciales y más.
ChatGPT llegó al escenario mundial a fines de noviembre, y en los pocos meses desde entonces ha convencido al mundo de que estamos al borde de una [revolución] tecnológica (https://gizmodo.com/ai-chatgpt-bing-google-8-sign-revolution-out-of-control-1850076241) que cambiará cada aspecto de nuestra experiencia vivida.
Las posibilidades y expectativas desencadenaron una carrera armamentista entre los gigantes tecnológicos. Google presentó su propio motor de búsqueda impulsado por IA llamado "Bard", Microsoft lanzó su nueva herramienta al mercado e innumerables empresas más pequeñas están luchando para hacer despegar su propia tecnología de IA.
Pero perdido en la refriega está el hecho de que estas herramientas no están listas para hacer los trabajos que la industria tecnológica anuncia. Arvind Narayanan, un destacado investigador de inteligencia artificial en la Universidad de Princeton, llamó a ChatGPT un "[generador de mentiras] (https://gizmodo.com/princeton-chatgpt-ai-1850052613)" que no es capaz de producir resultados precisos, a pesar de que el Las respuestas de la herramienta parecen convincentes. Las respuestas antisemitas de Bing y las alucinaciones de los sueños febriles son una ilustración perfecta.
Actualización: 16/02/2023, 9:45 a. m. ET: Esta historia se ha actualizado con un comentario de Microsoft y detalles sobre las respuestas de Bing a las noticias sobre su mala conducta.
Actualización: 15/02/2023, 15:01 ET: Esta historia se actualizó con detalles sobre la historia de Microsoft con chatbots racistas y más información sobre los problemas de Bing.