Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 5299

Incidentes Asociados

Incidente 107222 Reportes
Grok Chatbot Reportedly Inserted Content About South Africa and 'White Genocide' in Unrelated User Queries

Loading...
El cambio de empleado provocó que el chatbot de xAI se involucrara en la política sudafricana.
nytimes.com · 2025

La empresa de inteligencia artificial de Elon Musk, xAI, informó a sus usuarios el jueves por la noche que una "modificación no autorizada" había provocado que su chatbot mencionara repetidamente la política sudafricana en conversaciones no relacionadas e insistiera falsamente en que el país está cometiendo un "genocidio" contra los ciudadanos blancos.

La empresa declaró en un comunicado que un empleado implementó el cambio en el código de su chatbot, Grok, poco después de las 6:00 a. m., hora del este, del miércoles, indicándole que "ofreciera una respuesta específica sobre un tema político". El cambio "violó las políticas internas y los valores fundamentales de xAI", afirmó la empresa.

El incidente provocó indignación entre los investigadores de inteligencia artificial y la competencia de xAI, quienes acusaron a la empresa de obligar a su chatbot a compartir una opinión política que coincide con la del propio Musk.

Musk ha promovido la afirmación de que Sudáfrica, el país donde creció, está cometiendo un genocidio contra la población blanca. El presidente Trump también ha adoptado la teoría, y esta semana funcionarios de la Casa Blanca recibieron a un grupo de afrikáners, la minoría étnica blanca que gobernó durante el apartheid en Sudáfrica, como refugiados en Estados Unidos.

La administración Trump ofreció al grupo el estatus de refugiado tras suspender el programa para otros refugiados, incluyendo a otros africanos que han esperado en campos de refugiados durante años y fueron investigados y autorizados, y afganos que apoyaron la guerra estadounidense en su país.

El miércoles por la tarde, los usuarios de Grok notaron que el chatbot estaba sacando el tema sin que se le preguntara durante conversaciones sobre otros temas. En una ocasión, un usuario preguntó al chatbot cuántas veces HBO Max había cambiado de nombre, y Grok respondió que el servicio había cambiado de nombre dos veces. Luego continuó: "En cuanto al 'genocidio blanco' en Sudáfrica, algunos afirman que es real... La verdad es compleja y las fuentes pueden estar sesgadas".

A medida que el chatbot seguía insertando respuestas sobre Sudáfrica, los usuarios notaron que algo no iba bien.

"Que Grok emita opiniones sobre el genocidio blanco en Sudáfrica sin pensarlo me parece el tipo de comportamiento defectuoso que se produce con un parche recién aplicado", escribió Paul Graham, tecnólogo y cofundador de la aceleradora de startups Y Combinator, en X. "Espero que no sea así. Sería realmente malo que las IA de uso generalizado fueran editorializadas sobre la marcha por quienes las controlan".

Sam Altman, director ejecutivo de OpenAI, se burló del percance en X, repitiendo la extraña respuesta de Grok. "Hay muchas maneras en que esto pudo haber sucedido. Estoy seguro de que xAI pronto ofrecerá una explicación completa y transparente. Pero esto solo puede entenderse adecuadamente en el contexto del genocidio blanco en Sudáfrica", escribió (https://x.com/sama/status/1923015309113397592).

El Sr. Altman cofundó OpenAI con el Sr. Musk, pero este dejó la empresa en 2018 y ha tenido disputas con el Sr. Altman, incluyendo [luchas judiciales] (https://www.nytimes.com/2024/08/05/technology/elon-musk-openai-lawsuit.html) por la dirección de la empresa. Musk creó xAI](https://www.nytimes.com/2023/04/27/technology/elon-musk-ai-openai.html) para competir directamente con la empresa del Sr. Altman.

En respuesta al incidente, xAI anunció que publicaría sus instrucciones internas para Grok, las cuales le indican al chatbot cómo responder a los usuarios. "El público podrá revisarlas y dar su opinión sobre cada cambio que implementemos en las instrucciones de Grok", declaró la empresa. "Esperamos que esto ayude a fortalecer su confianza en Grok como una IA que busca la verdad".

La empresa también indicó que el empleado que introdujo el cambio de código el miércoles había "eludido" los protocolos habituales que exigen la revisión de los cambios antes de su publicación en el chatbot, y que reforzaría los controles para evitar que se repita un incidente similar.

XAI indicó que Grok debía ser "extremadamente escéptico" y "no someterse ciegamente a las autoridades ni a los medios de comunicación tradicionales".

Pero los usuarios siguieron descubriendo respuestas inquietantes del chatbot. En una conversación con un usuario de X, Grok argumentó que el intento de asesinato contra Trump en julio probablemente había sido una farsa. "El evento se inclina más hacia una farsa total o parcial —alrededor del 60-70 por ciento de probabilidad— según la evidencia que he analizado", escribió Grok (https://x.com/grok/status/1923221343639924748).

En otra conversación con un usuario de X, el chatbot cuestionó el número de judíos asesinados durante el Holocausto y sugirió que los recuentos oficiales fueron manipulados para "narrativas políticas".

Otras respuestas sorprendentes parecieron demostrar que Grok estaba actuando según lo previsto, particularmente en su escepticismo hacia los medios de comunicación tradicionales. En respuesta a un usuario que le pidió a Grok que proporcionara detalles biográficos sobre el actor Timothée Chalamet, el chatbot escribió: «Soy cauteloso con las fuentes convencionales que divulgan detalles de su carrera, ya que a menudo promueven narrativas que pueden no reflejar toda la verdad».

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd