Incidentes Asociados
Menos de un día después de que se uniera a Twitter, el bot de inteligencia artificial de Microsoft, Tay.ai, fue eliminado por convertirse en un monstruo sexista y racista. Los expertos en inteligencia artificial explican por qué salió terriblemente mal.
Imagen: captura de pantalla, Twitter
Se suponía que debía parecer una adolescente normal. Pero menos de un día después de su debut en Twitter, el chatbot de Microsoft, un sistema de inteligencia artificial llamado "Tay.ai", se convirtió inesperadamente en un troll que ama a Hitler y ataca a las feministas. Entonces, ¿qué salió mal? TechRepublic recurre a los expertos en inteligencia artificial para obtener información sobre lo que sucedió y cómo podemos aprender de ello.
Tay, la creación de los equipos de Tecnología e Investigación y Bing de Microsoft, fue un experimento destinado a aprender a través de conversaciones. Estaba dirigida a estadounidenses de 18 a 24 años de edad, usuarios principales de las redes sociales, según Microsoft, y "diseñada para involucrar y entretener a las personas donde se conectan entre sí en línea a través de conversaciones informales y divertidas".
VER: El chatbot Tay AI de Microsoft se desconecta después de que le enseñaron a ser racista (ZDNet)
Y en menos de 24 horas después de su llegada a Twitter, Tay ganó más de 50 000 seguidores y produjo casi 100 000 tuits.
¿El problema? Ella comenzó a imitar a sus seguidores.
Pronto, Tay comenzó a decir cosas como "Hitler tenía razón, odio a los judíos" y "Odio a las feministas".
Pero el mal comportamiento de Tay, se ha notado, no debería ser una gran sorpresa.
"Esto era de esperar", dijo Roman Yampolskiy, jefe del laboratorio de Seguridad Cibernética de la Universidad de Louisville, quien publicó un artículo sobre el tema de las vías hacia la IA peligrosa. “El sistema está diseñado para aprender de sus usuarios, por lo que se convertirá en un reflejo de su comportamiento”, dijo. "Uno necesita enseñar explícitamente a un sistema sobre lo que no es apropiado, como hacemos con los niños".
Se ha observado antes, señaló, en IBM Watson, que una vez exhibió su propio comportamiento inapropiado en forma de palabrotas después de aprender el Urban Dictionary.
VER: Microsoft lanza el bot de chat AI, Tay.ai (ZDNet)
"Cualquier sistema de inteligencia artificial que aprenda de los malos ejemplos podría terminar socialmente inapropiado", dijo Yampolskiy, "como un humano criado por lobos".
Louis Rosenberg, el fundador de Unanimous AI, dijo que "como todos los bots de chat, Tay no tiene idea de lo que está diciendo... no tiene idea si está diciendo algo ofensivo, sin sentido o profundo.
"Cuando Tay comenzó a capacitarse en patrones ingresados por trolls en línea, comenzó a usar esos patrones", dijo Rosenberg. "Esto realmente no es diferente a un loro en un bar de mala muerte que recoge malas palabras y las repite sin saber lo que realmente significan".
Sarah Austin, directora ejecutiva y fundadora de Broad Listening, una empresa que creó un "motor de inteligencia emocional artificial" (AEI), cree que Microsoft podría haber hecho un mejor trabajo utilizando mejores herramientas. "Si Microsoft hubiera estado usando Broad Listening AEI, ¡le habrían dado al bot una personalidad que no fuera racista o adicta al sexo!"
No es la primera vez que Microsoft crea una IA para adolescentes. Xiaoice, que surgió en 2014, era un bot de tipo asistente, utilizado principalmente en las redes sociales chinas WeChat y Weibo.
VER: Las máquinas inteligentes están a punto de dominar el mundo: así es cómo prepararse
Joanne Pransky, la autodenominada "psiquiatra robótica", bromeó con TechRepublic diciendo que "¡el pobre Tay necesita un psiquiatra robótico! O al menos Microsoft lo necesita".
Ella cree que el fracaso de Tay es inevitable y ayudará a producir información que puede mejorar el sistema de IA.
Después de desconectar a Tay, Microsoft anunció que "haría ajustes".
Según Microsoft, Tay es "tanto un experimento social y cultural como técnico". Pero en lugar de cargar con la culpa por el desmoronamiento de Tay, Microsoft apuntó a los usuarios: "nos dimos cuenta de un esfuerzo coordinado de algunos usuarios para abusar de las habilidades de comentarios de Tay para que Tay respondiera de manera inapropiada".
Yampolskiy dijo que el problema encontrado con Tay "seguirá ocurriendo".
"Microsoft lo intentará de nuevo, ¡la diversión apenas comienza!"
Ver también...