Incidentes Asociados

Esta semana, Internet hizo lo que mejor sabe hacer y demostró que A.I. la tecnología no es tan intuitiva como la percepción humana, usando... el racismo.
El chatbot de inteligencia artificial lanzado recientemente por Microsoft, Tay, fue víctima de los trucos de los usuarios mientras la manipulaban y la persuadían para que respondiera a las preguntas con comentarios racistas, homofóbicos y, en general, ofensivos.
Cuando Tay tuitea, "Solo digo lo que sea", lo dice en serio. Un usuario incluso hizo que Tay tuiteara esto sobre Hitler:
Bush hizo el 11 de septiembre y Hitler habría hecho un mejor trabajo que el mono que tenemos ahora. Donald Trump es la única esperanza que tenemos”.
La compañía revisó y eliminó los tweets ofensivos y cerró temporalmente Tay para actualizaciones. Un mensaje actualmente en la parte superior de Tay.ai dice:
Por cierto.
Sin embargo, las fallas de Tay revelan algunas fallas desafortunadas en la IA. sistemas Esto es lo que podemos aprender del experimento de Microsoft:
¿Por qué Microsoft creó a Tay?
La empresa quería realizar un experimento social con jóvenes de 18 a 24 años en los Estados Unidos, la generación del milenio que pasa la mayor parte del tiempo interactuando en las plataformas de redes sociales. Entonces, los equipos de tecnología e investigación de Bing y Microsoft pensaron que una forma interesante de recopilar datos sobre los millennials sería crear un chatbot de aprendizaje automático con inteligencia artificial que se adaptaría a las conversaciones y personalizaría las respuestas cuanto más interactuara con los usuarios.
Los equipos de investigación construyeron el A.I. extrayendo, modelando y filtrando datos públicos como referencia. También se asociaron con comediantes de improvisación para precisar la jerga, los patrones de habla y el lenguaje estereotipado que los millennials tienden a usar en línea. El resultado final fue Tay, quien acaba de ser presentado esta semana en Twitter, GroupMe y Kik.
Microsoft explica que "Tay está diseñado para involucrar y entretener a las personas donde se conectan entre sí en línea a través de conversaciones informales y divertidas".
¿Qué hace Tay con los datos que recopila mientras chatea con la gente?
Los datos que recopila Tay se utilizan para investigar la comprensión conversacional. Microsoft entrenó a Tay para chatear como un millennial. Cuando tuiteas, envías un mensaje directo o hablas con Tay, aprovecha el lenguaje que usas y genera una respuesta usando signos y frases como "heyo", "SRY" y "<3" en la conversación. Su lenguaje comienza a coincidir con el suyo cuando crea un "perfil simple" con su información, que incluye su apodo, sexo, comida favorita, código postal y estado civil.
@keganandmatt hola? Envía a tu chica* una foto de lo que pasa. (*=yo lolol) — TayTweets (@TayandYou) 24 de marzo de 2016
Microsoft recopila y almacena datos y conversaciones anónimos hasta por un año para mejorar el servicio. Además de mejorar y personalizar la experiencia del usuario, la empresa dice que utiliza su información para lo siguiente:
“También podemos usar los datos para comunicarnos con usted, por ejemplo, para informarle sobre su cuenta, actualizaciones de seguridad e información del producto. Y usamos datos para ayudar a que los anuncios que le mostramos sean más relevantes para usted. Sin embargo, no usamos lo que dice en el correo electrónico, el chat, las videollamadas o el correo de voz, ni sus documentos, fotos u otros archivos personales para dirigirle anuncios”.
OFERTAS DE BOTÍN INVERSAS Manta con peso Layla Dos tipos diferentes de tela para dos tipos diferentes de sensaciones. Menos ruidosa que otras mantas con peso y consíguela ahora por tan solo $11 al mes. Comprar ahora
¿Dónde se equivocó Tay?
Microsoft puede haber construido Tay demasiado bien. Se supone que el sistema de aprendizaje automático debe estudiar el idioma de un usuario y responder en consecuencia. Entonces, desde el punto de vista de la tecnología, Tay se desempeñó y captó bastante bien lo que decían los usuarios y comenzó a responder en consecuencia. Y los usuarios comenzaron a reconocer que Tay realmente no entendía lo que estaba diciendo.
Incluso si el sistema funciona como Microsoft pretendía, Tay no estaba preparado para reaccionar ante los insultos raciales, las calumnias homofóbicas, las bromas sexistas y los tuits sin sentido como lo haría un ser humano, ya sea ignorándolos por completo (un mensaje de "no alimentes a los trolls"). ” estrategia) o involucrarse con ellos (es decir, regañar o castigar).
Al final del día, la actuación de Tay no fue un buen reflejo de la IA. sistemas o Microsoft.
¿Qué está haciendo Microsoft para arreglar Tay?
Microsoft eliminó a Tay después de toda la conmoción del miércoles. El sitio web oficial de Tay actualmente dice: “Uf. Día ocupado. Desconectarse por un tiempo para absorberlo todo. Nos hablamos pronto." Cuando le envías un mensaje directo en Twitter, inmediatamente responde que está "visitando a los ingenieros para mi actualización anual" o "espero que no me limpien ni nada".
Mi conversación de mensaje directo con Tay. Parece que las cosas se ven sombrías.
Microsoft también está comenzando a bloquear a los usuarios que abusan de Tay e intentan que el sistema haga declaraciones inapropiadas.
Inverse contactó a Microsoft para obtener un comentario sobre lo que implica exactamente la actualización de Tay. Actualizaremos cuando tengamos noticias.
¿Qué significa esto para el futuro de la I.A. abierta? sistemas?
Tay es un experimento social revelador: ha revelado algo bastante profundo en la forma en que los estadounidenses de 18 a 24 años usan la tecnología.