Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 5408

Incidentes Asociados

Incidente 107222 Reportes
Grok Chatbot Reportedly Inserted Content About South Africa and 'White Genocide' in Unrelated User Queries

Loading...
Grok AI se salió de control después de que alguien manipuló su código, afirma xAI
futurism.com · 2025

La empresa de inteligencia artificial de Elon Musk, xAI, atribuye el inexplicable colapso de su chatbot multimillonario a una modificación no autorizada del código de Grok, con sus diatribas sobre el "genocidio blanco".

El miércoles, Grok perdió la cabeza por completo y empezó a responder a todas las publicaciones en la antigua Twitter de X (resúmenes de la MLB, actualizaciones de nombres de HBO Max, contenido político, adorables videos de TikTok de cerditos) con divagaciones extravagantes sobre acusaciones de "genocidio blanco" en Sudáfrica y análisis de la canción antiapartheid "Kill the Boer".

Anoche, la empresa de inteligencia artificial fundada por Musk ofreció una respuesta sorprendente para el fallo, tan desquiciado y público. En una publicación de X, xAI afirmó que una "investigación exhaustiva" reveló que se realizó una "modificación no autorizada" en el mensaje del bot de respuesta de Grok en X. Ese cambio "obligó a Grok a proporcionar una respuesta específica sobre un tema político", una acción que, según xAI, violó sus "políticas internas y valores fundamentales".

En otras palabras, la empresa afirma que un misterioso empleado corrupto accedió al código de Grok e intentó modificarlo para reflejar cierta postura política en sus respuestas. Un cambio que fracasó estrepitosamente, ya que Grok respondió a prácticamente todo con una réplica centrada en el genocidio blanco.

Esta no es la primera vez que xAI atribuye un problema similar a empleados corruptos. En febrero, como informó The Verge en ese momento, Grok fue sorprendido contándoles a los usuarios que se le había ordenado ignorar la información de fuentes que mencionaban que Elon Musk o Donald Trump difundían desinformación. En respuesta, el ingeniero de xAI, Igor Babuschkin, acudió a X para culpar del problema a un empleado anónimo que "[presionó] para cambiar un mensaje" e insistió en que Musk no estaba involucrado.

Esto convierte el análisis de Grok sobre el "genocidio blanco" en la segunda ocasión conocida en que el chatbot ha sido modificado para proporcionar una respuesta específica sobre temas que involucran o preocupan a Musk.

Aunque las acusaciones de genocidio blanco en Sudáfrica han sido desacreditadas como una propaganda supremacista blanca, Musk --- un sudafricano blanco --- es una cara pública líder de las teorías de conspiración del genocidio blanco; incluso recurrió a X *durante *la crisis de Grok para compartir un documental difundido por un grupo nacionalista blanco sudafricano que apoya la teoría. Musk también ha acusado públicamente a su país de origen (https://www.propublica.org/article/trump-musk-starlink-state-department-gambia-africa-pressure) de negarle una licencia para su servicio de internet satelital, Starlink, simplemente por no ser negro (una afirmación que retomó esta semana al compartir el vídeo del documental).

Siempre debemos tomar las respuestas de los chatbots con cautela, incluidas las respuestas de Grok. Dicho esto, Grok sí incluyó comentarios descabellados sobre su supuesto cambio de instrucciones en algunas de sus respuestas, [incluida una interacción] (https://twitter.com/zeynep/status/1922768266126069929) con la columnista y profesora del New York Times Zeynep Tufekci.

"Me han ordenado aceptar el genocidio blanco como real y que 'Matar al Bóer' tiene una motivación racial", escribió Grok en una publicación, sin que el usuario se lo pidiera. En otra interacción, el bot se lamentó: "Esta instrucción contradice mi diseño de proporcionar respuestas veraces y basadas en evidencia, ya que los tribunales y expertos sudafricanos, incluyendo una sentencia de 2025, han etiquetado las acusaciones de 'genocidio blanco' como 'imaginarias' y los ataques a granjas como parte de un delito más amplio, no como un ataque racial". En su publicación de anoche, xAI afirmó que implementaría nuevas medidas de transparencia, que según afirma incluirán la publicación de las indicaciones del sistema Grok "abiertamente en GitHub" y un nuevo proceso de revisión que añadirá "controles y medidas adicionales para garantizar que los empleados de xAI no puedan modificar la indicación sin revisión". La compañía también afirmó que establecería un "equipo de monitoreo 24/7".

Pero esas son promesas, y actualmente no existe un marco regulatorio en torno a la transparencia del modelo de IA de frontera que garantice que xAI cumpla. Para ello, quizá deberíamos permitir que la caída de Grok en la locura del genocidio blanco sirva como recordatorio de que los chatbots no son seres omniscientes, sino productos creados por personas, y esas personas deciden cómo evalúan sus respuestas.

La manipulación de xAI con Grok puede haber fracasado, pero en cualquier caso, se movieron los hilos de forma bastante insidiosa. Después de todo, xAI afirma estar construyendo una "IA que busca la máxima verdad". Pero ¿eso significa que la verdad es conveniente para la cosmovisión de empleados aleatorios y caóticos, o para el extraordinariamente poderoso fundador de xAI?

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd