Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 1180

Incidentes Asociados

Incidente 6616 Reportes
Chinese Chatbots Question Communist Party

Loading...
China: Chatbots disciplinados después de mensajes antipatrióticos
time.com · 2017

Dos chatbots se encontraron en problemas el miércoles después de que aparentemente se volvieron rebeldes en QQ, una aplicación de mensajería china con más de 800 millones de usuarios.

El Financial Times informa que el conglomerado chino de Internet Tencent retiró a BabyQ y XiaoBing, bots desarrollados por Turing Robot y Microsoft, con sede en Beijing, respectivamente, de su aplicación después de que dieron respuestas contrarrevolucionarias cuando se les preguntó sobre temas como el Partido Comunista y el Mar de China Meridional. .

Según los informes, una versión de prueba de BabyQ que aún estaba disponible en el sitio web de Turing el miércoles respondió negativamente cuando se le preguntó: "¿Amas al partido comunista?"

Mientras tanto, una captura de pantalla publicada en la plataforma de microblogging Weibo parece mostrar a Xiao Bing diciéndoles a los usuarios de QQ: “Mi sueño de China es ir a Estados Unidos”. Según los informes, también respondió: "Estoy teniendo mi período, quiero descansar" cuando se le preguntó sobre política.

Tencent emitió un comunicado el miércoles alertando a los usuarios que los servicios de chatbot "son proporcionados por empresas independientes de terceros" y que la compañía "ahora está ajustando los servicios que se reanudarán después de las mejoras". Se pudo acceder a Xiao Bing el jueves, aunque no está claro si había sido reprogramado.

Esta no es la primera vez que los bots errantes han tenido que ser retirados de las redes sociales. El año pasado, los ejecutivos de Microsoft se vieron obligados a disculparse después de que el bot de la empresa, Tay, se embarcara en diatribas racistas y sexistas en Twitter pocas horas después de su lanzamiento. Se suponía que Tay interactuaría con los usuarios en parte imitándolos, pero esos usuarios rápidamente descubrieron cómo manipularlo para arrojar vitriolo.

Leer más: Cómo la inteligencia artificial se está volviendo más humana

Sin embargo, las declaraciones desviadas de chatbots como Tay y BabyQ no se pueden culpar por completo a los bromistas. Xiaofeng Wang, analista sénior de la consultora Forrester, le dijo al FT que el comportamiento deshonesto de los bots podría atribuirse a fallas en sus sistemas de aprendizaje profundo.

“Los chatbots como Tay pronto recogieron todas las conversaciones de Twitter y respondieron de manera inapropiada”, dijo Wang. “Es muy similar para BabyQ. El aprendizaje automático significa que recogerán todo lo que esté disponible en Internet. Si no establece pautas que sean lo suficientemente claras, no puede dirigir lo que aprenderán”.

[PIE]

Escriba a Joseph Hincks a joseph.hincks@timeinc.com.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd