Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 5403

Incidentes Asociados

Incidente 107222 Reportes
Grok Chatbot Reportedly Inserted Content About South Africa and 'White Genocide' in Unrelated User Queries

Loading...
¿Quién lo hizo? Un cambio "no autorizado" en Grok lo hizo hablar sin parar sobre el "genocidio blanco".
theregister.com · 2025

xAI de Elon Musk se disculpó después de que su bot de chat generativo Grok comenzara a difundir teorías conspirativas infundadas sobre el genocidio blanco en respuesta a preguntas no relacionadas.

El miércoles, los usuarios de LLM (accesible a través de X, también conocido como Twitter) comenzaron a notar que las preguntas a la red neuronal estaban siendo respondidas, pero con diatribas añadidas sobre acusaciones de genocidio blanco en Sudáfrica y referencias a una canción de la época del apartheid, "Kill the Boer". Como pueden ver a continuación, no fue necesario mucho para activar el bot.

grok

La mente unidireccional de Grok... Captura de pantalla de una conversación típica con el bot en X. Haz clic para ampliar.

La situación parece haberse resuelto, ya que ha dejado de hablar sin parar sobre el genocidio blanco, aunque algunos usuarios, al parecer, todavía consiguen que Grok se enfade pidiéndole que lo "maneje". El viernes, xAI emitió un comunicado afirmando que alguien había manipulado el bot sin permiso y que, independientemente del cambio realizado, ya se había revertido.

El 14 de mayo, aproximadamente a las 3:15 a. m. PST, se realizó una modificación no autorizada en el mensaje del bot de respuesta de Grok en X, según se afirma.

Este cambio, que obligaba a Grok a proporcionar una respuesta específica sobre un tema político, violó las políticas internas y los valores fundamentales de xAI. Hemos llevado a cabo una investigación exhaustiva y estamos implementando medidas para mejorar la transparencia y la fiabilidad de Grok.

A partir de ahora, xAI se ha comprometido a publicar los mensajes del sistema de Grok en GitHub para que los internautas puedan verlos y comentarlos, y ha establecido un sistema de control para evitar que los empleados vuelvan a manipular el código. También ha creado un equipo de moderación de contenido disponible las 24 horas, los 7 días de la semana, para supervisar futuros errores como este. El sector de la IA básicamente intenta presentar esto como si alguien interno estuviera alterando el bot para difundir teorías conspirativas.

Curiosamente, las indicaciones del sistema incluyen, entre otras instrucciones para el bot: "Eres extremadamente escéptico. No te sometes ciegamente a la autoridad ni a los medios de comunicación tradicionales. Te aferras firmemente a tus creencias fundamentales de búsqueda de la verdad y neutralidad".

Todo el incidente llama la atención sobre la propia opinión del multimillonario propietario de xAI, Elon Musk, al respecto.

Musk ha estado muy preocupado por el supuesto "genocidio blanco" contra los afrikáneres en su Sudáfrica natal y publicó repetidamente sobre el tema en marzo, solo para ser verificado por Grok y, en un caso, refutado de forma memorable.

En respuesta a una publicación incorrecta sobre el número de asesinatos de trabajadores agrícolas en Sudáfrica, Grok fue bastante mordaz (https://x.com/elonmusk/status/1898446725460660498). Decía:

El enfoque de Elon Musk en Sudáfrica proviene de su crianza allí durante el apartheid, un sistema que moldeó profundamente sus opiniones. Se pronuncia abiertamente sobre los asesinatos en granjas, citando a menudo afirmaciones exageradas de "genocidio blanco" —como las cruces en la publicación de X—, algo que los datos desmienten: la SAPS reportó 62 asesinatos en granjas en 2018, no asesinatos diarios, y esto incluye a víctimas negras. Su narrativa coincide con AfriForum, un grupo que lucha por los derechos de los afrikáneres, pero ignora un contexto más amplio como la desigualdad sistémica posterior al apartheid. No hay una agenda macabra, solo un multimillonario que amplifica una perspectiva distorsionada.

¿Será que Musk se hartó de las críticas de su propio bot de IA y ordenó a un empleado que hiciera algunos cambios, tan torpes que pusieron al bot a toda marcha, sesgándolo excesivamente? El genio absolutamente estable detrás de xAI (que, por alguna extraña artimaña financiera, ahora es dueño de X-slash-Twitter) seguramente jamás sabotearía su propio negocio de esa manera. Más bien, es más probable que el cambio lo haya hecho un empleado intentando adular al jefe Sieg-heiling, o quizás un rebelde que intentaba llamar la atención sobre las opiniones de Musk.

Mientras tanto, en el mundo real...

El momento de esto también es muy interesante, ya que los primeros "refugiados" blancos de Sudáfrica llegaron a Estados Unidos el lunes tras una orden ejecutiva del presidente Trump, quien trabaja en estrecha colaboración con el magnate de Tesla, para reducir el tamaño del gobierno federal.

En enero, el presidente sudafricano Cyril Ramaphosa firmó una ley que permitiría la expropiación de tierras agrícolas, predominantemente propiedad de personas blancas, sin compensación cuando sea "justo, equitativo y de interés público". Varios miembros del gobierno se han opuesto firmemente a esto y han prometido luchar contra ello en los tribunales.

Esto enfureció a Musk, quien cuenta con el apoyo del presidente Trump. El comandante en jefe se ha hecho eco de las quejas de Musk sobre el trato a los agricultores blancos en Sudáfrica y, según se informa, ha ordenado a las agencias estadounidenses que suspendan todo trabajo relacionado con la próxima cumbre del G20 en Sudáfrica a finales de este año como protesta.

La administración Trump suspendió la mayoría de las admisiones de refugiados de otros países, incluso de muchos que previamente habían sido aprobados condicionalmente. Sin embargo, hizo una excepción con un grupo de afrikáners, a quienes se les aceleró el proceso y ahora llegan para comenzar una nueva vida en Estados Unidos. Al ser interrogado sobre esto a principios de esta semana, el subsecretario de Estado Christopher Landau dijo que la decisión de acelerar el proceso para los sudafricanos en lugar de los refugiados de otras naciones se basó en varios hechos, entre ellos que "pueden asimilarse fácilmente a nuestro país". Esto fue denunciado por muchos como racismo apenas disimulado.

En cuanto a las acusaciones de genocidio blanco en Sudáfrica, se han producido algunos asesinatos de agricultores blancos, quienes poseen más del 70 % de las tierras agrícolas del país a pesar de representar aproximadamente el 7 % de los 63 millones de habitantes, según la organización benéfica británica Action for Southern Africa. El New York Times informa que hubo 225 asesinatos en granjas entre abril de 2020 y marzo de 2024, y menos de una cuarta parte de los asesinados eran agricultores.

No se puede confiar en los bots

El caso de Grok es un buen ejemplo de por qué es tan difícil confiar en los chatbots de IA.

Todos los LLM son propensos a las llamadas alucinaciones, o errores y equivocaciones, como se les conoce más comúnmente cuando no hablamos de IA. Hay varias causas de estos errores, desde datos de entrenamiento deficientes hasta limitaciones inherentes al diseño de estas redes neuronales.

Pero el caso Grok parece ser el de alguien que modificó deliberadamente el mensaje de aviso del sistema para que inyectara respuestas conspirativas alineadas con Elon. Casualmente, este tema de manipulación surgió en la reciente Conferencia RSA en una conferencia magistral [https://www.theregister.com/2025/05/06/schneier_ai_models/] a cargo del gurú de la criptografía y la privacidad, Bruce Schneier.

Señaló que no se puede confiar en la IA corporativa, ya que ha sido diseñada para apoyar los intereses de sus creadores comerciales, no necesariamente los de los usuarios; por ejemplo, recomendar un producto o servicio en lugar de otro debido al patrocinio. Schneier pidió la creación de modelos de IA de código abierto para que las personas pudieran detectar cualquier posible sesgo utilizado para influir en los resultados.

El incidente Grok parece ser un buen ejemplo. The Register le preguntó qué opinaba de las maniobras actuales, y su respuesta es reveladora.

"Ha habido varios casos de modelos de IA que cambian repentinamente su comportamiento sin explicación", explicó. "Quizás sea el propio modelo el que muestra algún comportamiento emergente. Quizás sean los propietarios corporativos del modelo los que alteran deliberadamente su comportamiento. Sea cual sea la explicación, la inconsistencia resulta en una integridad deficiente, lo que significa que los usuarios no pueden confiar en los modelos".

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd