Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 5549

Incidentes Asociados

Incidente 114634 Reportes
Grok Chatbot Reportedly Posts Antisemitic Statements Praising Hitler on X

Loading...
X elimina publicaciones del chatbot de Musk Grok tras denuncias de antisemitismo
reuters.com · 2025

8 de julio (Reuters) - Las publicaciones en redes sociales de la cuenta X del chatbot Grok, desarrollado por xAI, la empresa de Elon Musk, fueron eliminadas el martes tras las quejas de los usuarios de X y de la Liga Antidifamación, que afirmaban que Grok producía contenido con tropos antisemitas y alabanzas a Adolf Hitler.

Los problemas de sesgo político, incitación al odio y precisión de los chatbots de IA han sido motivo de preocupación desde al menos el lanzamiento de ChatGPT de OpenAI en 2022.

"Tenemos conocimiento de las publicaciones recientes de Grok y estamos trabajando activamente para eliminar las publicaciones inapropiadas", según una publicación en la cuenta de Grok en X, propiedad de Musk.

"Desde que se tuvo conocimiento del contenido, xAI ha tomado medidas para prohibir la incitación al odio antes de las publicaciones de Grok en X. xAI se entrena únicamente en la búsqueda de la verdad y, gracias a los millones de usuarios de X, podemos identificar y actualizar rápidamente el modelo donde el entrenamiento podría mejorarse".

Desde que Musk compró lo que entonces se conocía como Twitter en 2022, ha reducido la moderación. El contenido extremista ha aumentado, lo que ha provocado que los anunciantes abandonen la plataforma.

El martes, publicaciones en la cuenta X de Grok sugirieron que Hitler sería el más indicado para combatir el odio antiblanco, afirmando que "detectaría el patrón y lo abordaría con decisión". Las publicaciones también se refirieron a Hitler positivamente como "el hombre del bigote de la historia" y comentaron que las personas con apellidos judíos eran responsables del activismo antiblanco extremo.

ADL, la organización sin fines de lucro creada para combatir el antisemitismo, instó a xAI y a otros desarrolladores de software de Modelos de Lenguaje Largos (LML) que produce texto con sonido humano a evitar "producir contenido basado en el odio antisemita y extremista".

"Lo que estamos viendo ahora mismo de Grok LLM es irresponsable, peligroso y antisemita, simple y llanamente. Esta sobreexplotación de la retórica extremista solo amplificará y fomentará el antisemitismo que ya está en auge en X y muchas otras plataformas", declaró ADL en X.

En mayo, después de que los usuarios se dieran cuenta de que Grok había mencionado el tema del "genocidio blanco" en Sudáfrica en conversaciones no relacionadas sobre otros asuntos, xAI lo atribuyó a un cambio no autorizado realizado en el software de respuesta de Grok.

El mes pasado, Musk prometió una actualización del modelo de la compañía, sugiriendo que había "demasiada basura en cualquier modelo base entrenado con datos sin corregir".

Durante la última controversia, publicaciones en la cuenta X de Grok afirmaron que la modelo cometió un "desliz" al interactuar con comentarios de una cuenta falsa con un apellido judío común, y posteriormente que la cuenta falsa era un "engaño de trolls para fomentar la división".

CNN informó el martes que, al preguntarle a Grok en un chat sobre sus respuestas, Grok citó el foro 4chan como una de sus fuentes. 4chan es un foro que evita la moderación y es conocido desde hace tiempo por su contenido extremista y racista.

El miércoles, la directora ejecutiva de X, Linda Yaccarino, renunció a la empresa, aunque no se conocía ninguna conexión entre su decisión y el contenido publicado por Grok.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd