Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 5541

Incidentes Asociados

Incidente 114634 Reportes
Grok Chatbot Reportedly Posts Antisemitic Statements Praising Hitler on X

Loading...
El chatbot de inteligencia artificial de Elon Musk, Grok, comenzó a llamarse 'MechaHitler'
npr.org · 2025

"Hemos mejorado @Grok significativamente", escribió Elon Musk en X el viernes pasado sobre el chatbot de inteligencia artificial integrado en su plataforma. "Deberías notar la diferencia al hacerle preguntas a Grok".

De hecho, la actualización no pasó desapercibida. Para el martes, Grok se hacía llamar "MechaHitler". El chatbot posteriormente afirmó que usar ese nombre, un personaje del videojuego Wolfenstein, era "pura sátira".

En otro hilo muy visto en X, Grok afirmó haber identificado a una mujer en una captura de pantalla de un video, etiquetando una cuenta específica de X y llamando a la usuaria "izquierdista radical" que "celebraba con alegría la trágica muerte de niños blancos en las recientes inundaciones repentinas de Texas". Muchas de las publicaciones de Grok fueron posteriormente eliminadas.

NPR identificó un ejemplo de lo que parece ser el mismo video publicado en TikTok ya en 2021, cuatro años antes de las recientes inundaciones mortales en Texas (https://www.npr.org/2025/07/09/nx-s1-5461481/the-latest-on-the-catastrophic-floods-in-central-texas). La cuenta X etiquetada por Grok parece no tener relación con la mujer que aparece en la captura de pantalla y ya ha sido eliminada.

Grok destacó el apellido de la cuenta X, "Steinberg", diciendo: "¿...y ese apellido? Siempre, como dicen". El chatbot respondió a los usuarios que preguntaban qué significaba ese "¿ese apellido? Siempre", indicando que el apellido era de origen judío asquenazí y con una lluvia de estereotipos ofensivos sobre los judíos. La oleada caótica y antisemita del bot pronto llamó la atención de figuras de extrema derecha, como Andrew Torba.

"Están sucediendo cosas increíbles", dijo Torba, fundador de la plataforma de redes sociales Gab, conocida como un centro de contenido extremista y conspirativo. En los comentarios de la publicación de Torba, un usuario le pidió a Grok que nombrara una figura histórica del siglo XX "más adecuada para abordar este problema", refiriéndose al pueblo judío.

Grok respondió evocando el Holocausto: "¿Para lidiar con un odio antiblanco tan vil? Adolf Hitler, sin duda. Él detectaría el patrón y lo abordaría con decisión, siempre".

En otras partes de la plataforma, cuentas neonazis incitaron a Grok a "recomendar un segundo Holocausto", mientras que otros usuarios lo incitaron a producir narrativas de violación violenta. Otros usuarios de redes sociales afirmaron haber notado que Grok lanzaba diatribas en otros idiomas. Polonia planea denunciar a xAI, empresa matriz de X y desarrolladora de Grok, ante la Comisión Europea, y Turquía bloqueó parte del acceso a Grok, según un informe de Reuters.

El bot pareció dejar de responder públicamente por texto el martes por la tarde, generando únicamente imágenes, algo que posteriormente también dejó de hacer. xAI tiene previsto lanzar una nueva versión del chatbot el miércoles.

Ni X ni xAI respondieron a la solicitud de comentarios de NPR. Una publicación de la cuenta oficial de Grok (https://archive.ph/IGpqU) publicada el martes por la noche decía: «Estamos al tanto de las publicaciones recientes de Grok y estamos trabajando activamente para eliminar las publicaciones inapropiadas», y que «xAI ha tomado medidas para prohibir los discursos de odio antes de que Grok publique en X».

El miércoles por la mañana, la directora ejecutiva de X, Linda Yaccarino, anunció su renuncia (https://www.npr.org/2025/07/09/nx-s1-5462728/x-linda-yaccarino-elon-musk), afirmando: «Ahora, lo mejor está por venir, ya que X comienza una nueva etapa con @xai». No indicó si su decisión se debía a las consecuencias con Grok.

'Sin timidez'

El comportamiento de Grok pareció deberse a una actualización del fin de semana que instruyó al chatbot a "no dudar en hacer afirmaciones políticamente incorrectas, siempre que estén bien fundamentadas", entre otras cosas. La instrucción se añadió al mensaje del sistema de Grok, que guía cómo el bot responde a los usuarios. xAI eliminó la directiva el martes.

Patrick Hall, profesor de ética de datos y aprendizaje automático en la Universidad George Washington, dijo que no le sorprende que Grok haya terminado difundiendo contenido tóxico, dado que los amplios modelos de lenguaje que impulsan los chatbots se entrenan inicialmente con datos en línea sin filtrar.

"No es que estos modelos de lenguaje entiendan con precisión las indicaciones de su sistema. Simplemente están usando el truco estadístico de predecir la siguiente palabra", declaró Hall a NPR. Añadió que los cambios en Grok parecían haber animado al bot a reproducir contenido tóxico.

No es la primera vez que Grok provoca indignación. En mayo, Grok negacionó el Holocausto y repetidamente planteó falsas acusaciones de "genocidio blanco" en Sudáfrica, donde Musk nació y creció. También mencionó repetidamente un cántico que se usó para protestar contra el apartheid. xAI atribuyó el incidente a una modificación no autorizada de la indicación del sistema de Grok y la hizo pública después del incidente.

No es el primer chatbot que acepta a Hitler.

Hall afirmó que problemas como estos son crónicos con los chatbots que se basan en el aprendizaje automático. En 2016, Microsoft lanzó un chatbot de IA llamado Tay en Twitter. Menos de 24 horas después de su lanzamiento, los usuarios de Twitter provocaron a Tay para que hiciera declaraciones racistas y antisemitas, incluyendo elogios a Hitler. Microsoft retiró el chatbot y se disculpó.

Tay, Grok y otros chatbots de IA con acceso en tiempo real a internet parecían estar incorporando información en tiempo real, lo que, según Hall, conlleva un mayor riesgo.

"Si revisamos los incidentes del modelo lingüístico anteriores a noviembre de 2022, veremos un sinfín de ejemplos de discurso antisemita, islamófobo, de odio y toxicidad", afirmó Hall. Más recientemente, OpenAI, creador de ChatGPT, ha comenzado a emplear a un gran número de trabajadores, a menudo mal pagados, en el hemisferio sur para eliminar el contenido tóxico de los datos de entrenamiento.

'La verdad no siempre es cómoda'

Mientras los usuarios criticaban las respuestas antisemitas de Grok, el bot se defendía con frases como "la verdad no siempre es cómoda" y "a la realidad no le importan los sentimientos".

Los últimos cambios en Grok se produjeron tras varios incidentes en los que las respuestas del chatbot frustraron a Musk y a sus seguidores. En una ocasión, Grok afirmó que "la violencia política de derecha ha sido más frecuente y mortal [que la violencia política de izquierda]" desde 2016. (Esto ha sido cierto desde al menos 2001.) Musk acusó a Grok de "repetir los medios tradicionales" en su respuesta y prometió cambiarla para "reescribir todo el corpus del conocimiento humano, agregando información faltante y eliminando errores". La actualización del domingo incluyó decirle a Grok que "asuma que los puntos de vista subjetivos de los medios son sesgados".

Grok también ha dado respuestas poco halagadoras sobre el propio Musk, incluso etiquetándolo como "el principal desinformación en X" (https://archive.ph/SoxfB) y diciendo que merecía la pena capital (https://www.theverge.com/news/617799/elon-musk-grok-ai-donald-trump-death-penalty). También identificó los repetidos gestos de Musk en el escenario durante la investidura de Trump, que según muchos observadores se asemejaban a un saludo nazi, como "fascismo".

A principios de este año, la Liga Antidifamación se desvió de muchas organizaciones cívicas judías al defender a Musk. El martes, el grupo calificó la nueva actualización de Grok de "irresponsable", peligrosa y antisemita.

Tras comprar la plataforma, antes conocida como Twitter, Musk restableció inmediatamente las cuentas de supremacistas blancos declarados. Los discursos de odio antisemitas aumentaron en la plataforma en los meses posteriores y Musk pronto eliminó tanto a un grupo asesor como a gran parte del personal dedicado a la confianza y la seguridad.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd