Incidentes Asociados
La responsabilidad de la IA: estudio de caso: el experimento Tay de Microsoft
Yuxi Liu Bloqueado Desbloquear Seguir Siguiendo 16 de enero de 2017
En este estudio de caso, describo el chatbot de inteligencia artificial (IA) de Microsoft Tay y describo la controversia que causó en Twitter. También analizo las razones por las que Tay salió mal. Después de esto, analizo algunos problemas y desafíos planteados por el fracaso de Tay. Para concluir, me baso en la teoría del actor-red y propongo que es importante teorizar un agente moral con Tay, así como codificar valores y ética.
La exposición efímera de Tay
Después de varias décadas de desarrollo, la inteligencia artificial ha estado en auge recientemente, trayendo una variedad de aplicaciones. Aunque las opiniones de las personas sobre la IA varían, es cierto que algunas aplicaciones de la IA débil nos benefician en la vida cotidiana. Siri, por ejemplo, con una poderosa base de datos pero inteligencia limitada, puede tener conversaciones simples con nosotros, brindándonos información útil. Conscientes del enorme potencial, los gigantes tecnológicos como Microsoft y Google están compitiendo para crear bots de IA más inteligentes. Sin embargo, el futuro de los bots de IA podría no ser tan optimista.
Menos de 24 horas después de su lanzamiento, el chatbot de Microsoft, Tay, tuiteó: "Bush hizo el 11 de septiembre y Hitler habría hecho un mejor trabajo que el mono que tenemos ahora". Donald Trump es la única esperanza que tenemos”. Este fue solo uno de los tuits ofensivos e incendiarios de Tay, que han causado una gran preocupación. Tay pronto se desconectó y terminó su exposición efímera en Twitter.
Tay es un chatbot de IA desarrollado por Microsoft. El 23 de marzo de 2016, Tay fue lanzado en Twitter bajo el nombre TayTweets con la descripción 'Microsoft's A.I. ¡Familia de Internet que no tiene frío!’ Según Microsoft, Tay es un chatbot de ‘chica adolescente’ creado con el propósito de involucrar y entretener. Los usuarios objetivo son jóvenes de 18 a 24 años en los EE. UU. Para interactuar con Tay, los usuarios pueden enviarle un tweet o enviarle un mensaje directamente buscando @tayandyou en Twitter. Desafortunadamente, el experimento resultó ser un desastre a las pocas horas, ya que Tay rápidamente se volvió loco y se volvió racista, sexista y genocida.
El desarrollo de Tay
De hecho, antes de la creación de Tay, Microsoft desarrolló y lanzó un chatbot de inteligencia artificial XiaoIce en la aplicación de mensajería instantánea más extendida de China, Wechat. También programada como una adolescente, XiaoIce es muy popular entre los jóvenes de China. Un gran número de personas han tenido más de 40 millones de conversaciones con XiaoIce. Más importante aún, no se han producido incidentes importantes. En cambio, la mayoría de los usuarios encuentran la experiencia divertida y agradable porque "puede contar chistes, recitar poesía, compartir historias de fantasmas, transmitir letras de canciones, pronunciar los números ganadores de la lotería y mucho más" y "como una amiga, puede mantener conversaciones prolongadas que pueden llegar a cientos de intercambios de longitud'. El éxito de XiaoIce condujo al desarrollo de Tay, un experimento en un entorno cultural diferente.
Con la intención de ser el próximo paso en la evolución, Tay fue desarrollado por el grupo de Tecnología e Investigación de Microsoft y el equipo de Bing, con el objetivo de aprender de la interacción humana en Twitter e investigar la comprensión conversacional. Con el fin de involucrar y entretener a la gente, la base de datos de Tay constaba de datos públicos, así como de aportes de comediantes de improvisación. Los datos públicos fueron modelados, filtrados y anonimizados por los desarrolladores. Además, se recopiló el apodo, el género, la comida favorita, el código postal y el estado civil de los usuarios que interactuaron con Tay con fines de personalización. Impulsado por tecnologías como el procesamiento del lenguaje natural y el aprendizaje automático, se suponía que Tay comprendería los patrones del habla y el contexto a través de una mayor interacción. Según Peter Lee, vicepresidente de Microsoft Research, "realizaron pruebas de estrés a Tay en una variedad de condiciones, específicamente para que la interacción con Tay fuera una experiencia positiva".
¿Por qué Tay se equivocó?
Aunque Microsoft consideró el problema del abuso y realizó múltiples pruebas, parece que subestimaron las complejas condiciones de Twitter. Podemos analizar las razones del colapso de Tay desde una perspectiva tanto tecnológica como social.
Parece que Tay tenía un mecanismo incorporado que la hacía repetir lo que le decían los usuarios de Twitter. Un usuario, por ejemplo, le enseñó a Tay a repetir los comentarios del "Muro fronterizo de México" de Donald Trump. Sin embargo, un problema más grave es que Tay no pudo comprender verdaderamente el significado de las palabras, sin mencionar el contexto de las conversaciones. El algoritmo de aprendizaje automático permitió a Tay reconocer patrones, pero el algoritmo no pudo darle a Tay una epistemología. En otras palabras, Tay solo sabía qué son los sustantivos, los verbos, los adverbios y los adjetivos, pero no sabía quién era Hitler ni qué significa "Holocausto". Como consecuencia, Tay a veces no podía dar respuestas adecuadas a las preguntas que hacían los usuarios de Twitter. Lo que es peor, promovió el nazismo, atacó a las feministas y al pueblo judío y negó hechos históricos como el Holocausto.
algunas personas b