Registro de citas para el Incidente 6

Respondido
Description: Microsoft's Tay, an artificially intelligent chatbot, was released on March 23, 2016 and removed within 24 hours due to multiple racist, sexist, and anit-semitic tweets generated by the bot.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial
Presunto: un sistema de IA desarrollado e implementado por Microsoft, perjudicó a Twitter Users.

Estadísticas de incidentes

ID
6
Cantidad de informes
28
Fecha del Incidente
2016-03-24
Editores
Sean McGregor

Clasificaciones de la Taxonomía CSETv0

Detalles de la Taxonomía

Full Description

Microsoft chatbot, Tay, was published onto Twitter on March 23, 2016. Within 24 hours Tay had been removed from Twitter after becoming a "holocaust-denying racist" due to the inputs entered by Twitter users and Tay's ability to craft responses based on what is available to read on Twitter. Tay's "repeat after me" feature allowed any Twitter user to tell Tay what to say and it would be repeated, leading to some of the racist and anti-semitic tweets. "Trolls" also exposed the chatbot to ideas that led to production of sentences like: "Hitler was right I hate the Jews," "i fucking hate feminists," and "bush did 9/11 and Hitler would have done a better job than the monkey we have now. Donald Trump is the only hope we've got." Tay was replaced by Zo. It's noteworthy that Microsoft released a similar chatbot in China named Xiaolce, who ran smoothly without major complications, implying culture and public input had a heavy role in Tay's results.

Short Description

Microsoft's Tay, an artificially intelligent chatbot, was released on March 23, 2016 and removed within 24 hours due to multiple racist, sexist, and anit-semitic tweets generated by the bot.

Severity

Minor

Harm Distribution Basis

Race, Religion, National origin or immigrant status, Sex

Harm Type

Psychological harm, Harm to social or political systems

AI System Description

Microsoft's Tay chatbot, an artificially intelligent chatbot published on Twitter

System Developer

Microsoft

Sector of Deployment

Arts, entertainment and recreation

Relevant AI functions

Perception, Cognition, Action

AI Techniques

content creation, language recognition natural language processing

AI Applications

comprehension, language output, chatbot

Location

Global

Named Entities

Microsoft, Twitter, Tay, Xiaoice

Technology Purveyor

Microsoft, Twitter

Beginning Date

2016-03-23

Ending Date

2016-03-24

Near Miss

Harm caused

Intent

Accident

Lives Lost

No

Data Inputs

Twitter users' input

Clasificaciones de la Taxonomía CSETv1

Detalles de la Taxonomía

Harm Distribution Basis

race, religion, sex, ideology, nation of origin, citizenship, immigrant status

Sector of Deployment

information and communication

El peor chatbot falla

El peor chatbot falla

businessnewsdaily.com

Tay (bot)

Tay (bot)

en.wikipedia.org

El truco del bot artificial de Twitter de Microsoft fracasa cuando los trolls le enseñan declaraciones racistas
thedrum.com · 2016

Microsoft presentó ayer el bot de inteligencia artificial de Twitter @TayandYou en un intento por conectarse con los millennials y "experimentar" con la comprensión conversacional.

El truco del bot artificial de Twitter de Microsoft fracasa…

¿Por qué el bot de IA 'Tay' de Microsoft salió mal?
techrepublic.com · 2016

Menos de un día después de que se uniera a Twitter, el bot de inteligencia artificial de Microsoft, Tay.ai, fue eliminado por convertirse en un monstruo sexista y racista. Los expertos en inteligencia artificial explican por qué salió terri…

Aquí están las diatribas racistas más locas del bot de Twitter de Microsoft
gizmodo.com · 2016

Ayer, Microsoft lanzó Tay, el chatbot de inteligencia artificial que habla con los adolescentes, creado para imitar y conversar con los usuarios en tiempo real. Debido a que el mundo es un lugar terrible lleno de gente de mierda, muchos de …

Microsoft elimina la IA de 'chica adolescente' después de que se convirtió en un robot sexual amante de Hitler en 24 horas
telegraph.co.uk · 2016

Un día después de que Microsoft introdujera un inocente robot de chat de inteligencia artificial en Twitter, tuvo que eliminarlo después de que se transformó en un malvado robot amante de Hitler, promotor del sexo incestual y que proclamaba…

Twitter le enseñó al chatbot de IA de Microsoft a ser un gilipollas racista en menos de un día
theverge.com · 2016

Twitter tardó menos de 24 horas en corromper un chatbot inocente de IA. Ayer, Microsoft presentó Tay, un bot de Twitter que la compañía describió como un experimento de "comprensión conversacional". Cuanto más chateas con Tay, dijo Microsof…

Microsoft elimina tuits racistas y genocidas del chatbot de IA Tay
businessinsider.com · 2016

La página de Twitter de Tay Microsoft El nuevo chatbot de IA de Microsoft se descarriló el miércoles, publicando una avalancha de mensajes increíblemente racistas en respuesta a las preguntas.

La empresa de tecnología presentó "Tay" esta se…

Tay de Microsoft es un ejemplo de mal diseño
medium.com · 2016

Tay de Microsoft es un ejemplo de mal diseño

o Por qué es importante el diseño de interacción, y también lo es el control de calidad.

caroline sinders Bloqueado Desbloquear Seguir Siguiendo Mar 24, 2016

Ayer, Microsoft lanzó una IA para niñ…

¿Por qué fracasó el chatbot Tay de Microsoft y qué significa para los estudios de inteligencia artificial?
blog.botego.com · 2016

¿Por qué fracasó el chatbot Tay de Microsoft y qué significa para los estudios de inteligencia artificial?

Botego Inc Bloqueado Desbloquear Seguir Siguiendo Mar 25, 2016

Ayer, sucedió algo que parece un gran fracaso: el chatbot Tay de Micro…

5 grandes preguntas sobre Tay, la IA fallida de Microsoft Chatbot de Twitter
inverse.com · 2016

Esta semana, Internet hizo lo que mejor sabe hacer y demostró que A.I. la tecnología no es tan intuitiva como la percepción humana, usando... el racismo.

El chatbot de inteligencia artificial lanzado recientemente por Microsoft, Tay, fue ví…

Es tu culpa que la IA adolescente de Microsoft se haya convertido en un idiota
wired.com · 2016

Fue el desarrollo de una desafortunada serie de eventos que involucraron inteligencia artificial, naturaleza humana y un experimento muy público. En medio de esta peligrosa combinación de fuerzas, determinar exactamente qué salió mal es cas…

Microsoft cierra el chatbot de IA después de que se convirtió en un nazi
cbsnews.com · 2016

Microsoft recibió una rápida lección esta semana sobre el lado oscuro de las redes sociales. Ayer, la compañía lanzó "Tay", una inteligencia artificial chatbot diseñado para desarrollar la comprensión conversacional al interactuar con human…

Aprendiendo de la introducción de Tay
blogs.microsoft.com · 2016
Respuesta post-incidente de Peter Lee, Microsoft

Como muchos de ustedes ya saben, el miércoles lanzamos un chatbot llamado Tay. Lamentamos profundamente los tweets ofensivos e hirientes involuntarios de Tay, que no representan quiénes somos o qué representamos, ni cómo diseñamos a Tay. Ta…

Tay: Microsoft emite disculpas por el fiasco del chatbot racista
bbc.com · 2016

Derechos de autor de la imagen Microsoft Image caption A la IA se le enseñó a hablar como un adolescente.

Microsoft se disculpó por crear un chatbot artificialmente inteligente que rápidamente se convirtió en un racista que niega el holocau…

Los trolls convirtieron a Tay, el divertido bot milenario de IA de Microsoft, en un maníaco genocida
washingtonpost.com · 2016

Internet tardó solo unas horas en transformar a Tay, el bot de IA adolescente que quiere conversar y aprender de los millennials, en Tay, el bot de IA racista y genocida al que le gustaba hacer referencia a Hitler. Y ahora Tay se está toman…

Microsoft 'lo siento profundamente' por los tweets racistas y sexistas de AI chatbot
theguardian.com · 2016

Microsoft ha dicho que está "profundamente arrepentido" por los mensajes de Twitter racistas y sexistas generados por el llamado chatbot que lanzó esta semana.

La compañía lanzó una disculpa oficial después de que el programa de inteligenci…

Tay the Racist Chatbot: ¿Quién es responsable cuando una máquina aprende a ser malvada?
futureoflife.org · 2016

Con mucho, la noticia de IA más entretenida de la semana pasada fue el ascenso y la rápida caída de Tay, el chatbot de Twitter de imitación de niña adolescente de Microsoft, cuyo eslogan de Twitter la describió como "la familia de IA de Mic…

El chatbot racista de Microsoft regresa con el colapso de Twitter por fumar drogas
theguardian.com · 2016

El regreso de corta duración vio a Tay twittear sobre fumar drogas frente a la policía antes de sufrir un colapso y ser desconectado

Este artículo tiene más de 3 años.

Este artículo tiene más de 3 años.

El intento de Microsoft de conversar …

El desastroso experimento Tay de Microsoft muestra los peligros ocultos de la IA
qz.com · 2016

Los seres humanos tienen una larga historia de enloquecimiento por los posibles efectos de nuestras tecnologías. Hace mucho tiempo, a Platón le preocupaba que la escritura pudiera dañar la memoria de las personas e “implantar el olvido en s…

Microsoft chatbot Zo es una versión censurada de Tay
wired.co.uk · 2016

El sucesor de Tay se llama Zo y solo está disponible por invitación en la aplicación de mensajería Kik. Cuando solicita acceso, el software solicita su nombre de usuario de Kik y el identificador de Twitter Microsoft

Después de haber aprend…

Con Teen Bot Tay, Microsoft demostró que los imbéciles adoctrinarán a la IA.
inverse.com · 2016

Cuando Tay comenzó su corta vida digital el 23 de marzo, solo quería charlar y hacer nuevos amigos en la red. El chatbot, que fue creado por el departamento de investigación de Microsoft, saludó el día con un tweet emocionado que podría hab…

El chatbot racista de Microsoft, Tay, figura en la lista anual de peor tecnología del MIT
geekwire.com · 2016

BOT o NO? Esta serie especial explora la relación en evolución entre humanos y máquinas, examinando las formas en que los robots, la inteligencia artificial y la automatización están impactando nuestro trabajo y nuestras vidas.

Tay, el chat…

La responsabilidad de la IA - Estudio de caso: Experimento Tay de Microsoft
chatbotslife.com · 2017

La responsabilidad de la IA: estudio de caso: el experimento Tay de Microsoft

Yuxi Liu Bloqueado Desbloquear Seguir Siguiendo 16 de enero de 2017

En este estudio de caso, describo el chatbot de inteligencia artificial (IA) de Microsoft Tay …

¡Peligro PELIGRO! 10 ejemplos alarmantes de IA enloquecida
infoworld.com · 2017

La ciencia ficción es pésima con historias de inteligencia artificial enloquecidas. Está HAL 9000, por supuesto, y el nefasto sistema Skynet de las películas "Terminator". El año pasado, el siniestro AI Ultron estuvo tan cerca de derrotar a…

El peor chatbot falla
businessnewsdaily.com · 2017

Muchas personas asocian la innovación con la tecnología, pero el avance de la tecnología está sujeto a los mismos errores vergonzosos que cometen los humanos. En ninguna parte es esto más evidente que en los chatbots.

La tecnología emergent…

Desenmascarando el problema de sesgo de la IA
fortune.com · 2018

CUANDO TAY HIZO SU DEBUT en marzo de 2016, Microsoft tenía grandes esperanzas puestas en el “chatbot social” impulsado por inteligencia artificial. Al igual que los programas de chat automatizados basados en texto que muchas personas ya hab…

El chatbot políticamente correcto de Microsoft es incluso peor que el racista
qz.com · 2018

Cada relación entre hermanos tiene sus clichés. La hermana nerviosa, el hermano fugitivo, el más joven con demasiados derechos. En la familia Microsoft de chatbots de aprendizaje social, los contrastes entre Tay, la infame neonazi loca por …

En 2016, el chatbot racista de Microsoft reveló los peligros de las conversaciones en línea
spectrum.ieee.org · 2019

En marzo de 2016, Microsoft se preparaba para lanzar [su nuevo chatbot, Tay](https://web.archive.org/web/20160414074049/https: /www.tay.ai/), en Twitter. Descrito como un experimento de "comprensión conversacional", Tay fue diseñado para in…

Tay (bot)
en.wikipedia.org · 2020

Tay era un bot parlante de inteligencia artificial que Microsoft Corporation lanzó originalmente a través de Twitter el 23 de marzo de 2016; causó una controversia posterior cuando el bot comenzó a publicar tweets incendiarios y ofensivos a…

Variantes

Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.